facharbeit - LMU München
Transcription
facharbeit - LMU München
FACHARBEIT in dem Fach Leistungskurs Mathematik (Schuljahre 1996 - 1998) Thema: Aus dem Fachgebiet Stochastik: VERTEILUNGEN: Ü BERSICHT UND VERGLEICH Abgabetermin: 2. Februar 1998 Verfasser: Paul Holleis PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com INHALTSVERZEICHNIS VORWORT ............................................................................................................................. 3 I. GRUNDLAGEN ............................................................................................................. 5 1. Zufallsgröße ................................ ................................ ................................ ........ 5 2. Wahrscheinlichkeitsfunktion ......................................................................... 7 3. Verteilungsfunktion ................................ ................................ .......................... 9 1. Diskrete Verteilungen......................................................................................10 2. Stetige Verteilungen ........................................................................................12 3. Maß zahlen / Momente von Verteilungsfunktionen ................................ .........14 4. a) Erwartungswert ................................ ................................ ......................... 14 b) Varianz (Streuung) ................................ ................................ ....................17 c) Standardabweichung ................................ ................................ ..................19 Standardisierung ................................ ............................................................. 20 II. SPEZIELLE VERTEILUNGEN ................................ ................................ ....................22 1. Binomialverteilung.................................................................................................22 2. Hypergeometrische Verteilung...............................................................................26 3. Negativ-Binomialverteilung ...................................................................................29 4. Geometrische Verteilung........................................................................................31 5. Poisson-Verteilung.................................................................................................33 6. Normalverteilung ...................................................................................................36 III. ZUSAMMENHÄNGE ZWISCHEN DEN VERTEILUNGEN (GRENZWERTSÄTZE), NÄHERUNG DER ... ............................................................ 38 1. Binomialverteilung an die hypergeometrische Verteilung ........................... 38 2. Poisson-Verteilung an die Binomialverteilung ............................................43 3. Poisson-Verteilung an die hypergeometrische Verteilung ........................... 48 4. Normalverteilung an die Binomialverteilung ............................................51 5. Normalverteilung an die hypergeometrische Verteilung ........................... 57 6. Normalverteilung an die Poisson-Verteilung.............................................59 IV. Ü BERSICHT / ZUSAMMENFASSUNG ........................................................................62 ANHANG ................................ ............................................................................................... 63 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 3 VORWORT Der Themenkreis „ Stochastik“ enthält sowohl die Wahrscheinlichkeitsrechnung als auch den Bereich Statistik. Während letzterer sich hauptsächlich mit dem Testen von Hypothesen und der Auswertung von empirisch ermitteltem Zahlenmaterial beschäftigt, spielen in der Wahrscheinlichkeitsrechnung vor allem Verteilungen eine übergeordnete Rolle. Diese Facharbeit – „ Verteilungen, Ü bersicht und Vergleich anhand von Beispielen“ – soll einen Ü berblick über die wichtigsten Verteilungen und ihre Zusammenhänge geben. Bei den dargestellten Verteilungen wurde bewusst auf zu komplizierte Herleitungen und Beweise verzichtet. So wurden sie zum Beispiel nicht auf höhere Momente wie Schiefe und Exzess hin untersucht. Dies war nötig, um einen angemessenen Umfang der Arbeit zu gewährleisten. Auß erdem sollten die Ausführungen grundsätzlich das Niveau des Mathematik-unterrichts nicht überschreiten. Bei der Auswahl der Beispiele wurde viel Wert auf deren Anschaulichkeit beziehungsweise praktische Anwendbarkeit gelegt, um auch einem Leser, der weniger Wert auf abstrakte mathematische Formulierungen und Berechnungen legt, einen Anreiz zu bieten, sich mit diesem Gebiet zu beschäftigen. Dem Verfasser war es besonders wichtig, das Thema in einem abgeschlossenen Rahmen zu präsentieren, um es auch Lesern nahebringen zu können, die sich vorher nicht oder nur wenig mit der Materie beschäftigt haben. So ist es zu rechtfertigen, dass sich der erste Teil hauptsächlich mit den Grundlagen von Verteilungen beschäftigt, die bei entsprechenden Vorkennt-nissen kurz überflogen oder ganz überblättert werden können. Prinzipiell sollten aber möglichst wenig Grundlagen vorausgesetzt werden müssen. Bedingt durch den beschränkten Umfang der Arbeit ließ es sich jedoch nicht vermeiden, auf eine detaillierte Ausführung bestimmter Bereiche zu verzichten und diese Kenntnisse als bekannt vorauszusetzen. Darunter fallen zum Beispiel der allgemeine Wahrscheinlichkeitsbegriff und grundlegende kombinatorische Fertigkeiten. Grundsätzlich sollte es aber auch für einen Neuling in diesem speziellen Bereich der Stochastik möglich sein, den wesentlichen Inhalt nachvollziehen zu können. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 4 HINWEISE FÜ R DEN BENUTZER: Dem Leser, der sich hauptsächlich für die Ergebnisse dieser Arbeit interessiert, dürfte vor allem die groß angelegte Ü bersicht auf Seite 62 von Nutzen sein. Hier sind alle behandelten Verteilungen mit ihren Charakteristiken, Anwendungsbereichen und gegenseitigen Beziehungen plakativ aufgelistet. Zur Verbesserung der Ü bersichtlichkeit und Vereinfachung der Lesbarkeit wurden bestimmte Textbereiche einheitlich farblich markiert beziehungsweise hervorgehoben: Beispiele: Das Zufallsexperiment bzw. Schlagworte grün; grüner Strich am linken Rand; Definitionen: Gesamte Definition rot umrahmt; der jeweils definierte Begriff rot; Schlü sselbegriffe: Mit blau hervorgehoben; wichtige Formeln blau umrahmt; Faustregeln: Der gesamte Absatz gestrichelt blau umrahmt; Bedingungen blau; PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I. Grundlagen I.1. Zufallsgröß e 5 I. Grundlagen Verteilungen sind spezielle Funktionen, die bestimmte Ereignisse und Experimente beschreiben. Die Verteilungsfunktion basiert auf der Wahrscheinlichkeitsfunktion. Beide sind auf der sogenannten Zufallsgröß e X aufgebaut. Zum Vergleich verschiedener Verteilungen benötigt man zusätzlich Kenntnisse über den Erwartungswert, die Varianz und die Standardabweichung. Diese Grundlagen sollen nun zuerst einmal vorgestellt werden: I. 1. Zufallsgrö ß e Hat man einen Versuch ausgeführt, bei dem es mehrere Ergebnisse gibt, hat jedes eine bestimmte Wahrscheinlichkeit. Man verknüpft diese beiden nun mit Hilfe einer Funktion. Um den Graph dieser Funktionen später auch zeichnen zu können, verwendet man für die Ereignisse nicht Buchstaben („ A“ , „ B“ , „ E“ , ...) oder Beschreibungen („ erster Wurf ist eine Sechs“ , ...), sondern Zahlen aus dem Bereich der reellen Zahlen. Definition: Eine Funktion X heiß t Zufallsgröß e, wenn sie jedem möglichen Ergebnis w eines Zufallsexperiments eine reelle Zahl zuordnet. Die Definitionsmenge der Funktion DX ist also die Ergebnismenge W des Zufallsexperiments, die Wertemenge WX ist eine Teilmenge von R. X : W ® WX, w a X(w) (Die Funktion X bildet den Ergebnisraum W auf WX Î R ab; jedem Ergebnis w wird eine Zahl X(w) zugeordnet) X ist also keine einfache Zahl, sondern eine Funktion. Die Funktionsgleichung ist in den allermeisten Fällen nur abschnittsweise definiert zu beschreiben. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.1. Zufallsgröß e 6 Beispiel: Beim Roulette gibt es insgesamt 37 verschiedene Zahlen (0-36), die auf unterschiedlichste Arten zusammengefasst werden können. Die Zufallsgröß e X ordnet diesen Ereignissen nun verschiedene Zahlen zu: 1. Beispiel: 2. Beispiel: W = DX WX Î R W = DX WX Î R Rot 1 1. Drittel 1 Schwarz 2 2. Drittel 2 Null 3 3. Drittel 3 Null 4 Die Funktion X fasst hier also mehrere Wieder komprimiert die Funktion X alle Ereignisse zusammen, so dass nur noch genau Ereignisse auf vier Zahlen. Deshalb kann man die drei Ereignisse die von Interesse sind die Funktion so beschreiben: auftreten. Sie lautet: rote Zahlen"} ì1 für w Î {" rote ï X(w) = í2 für w Î {" schwarze Zahlen"} ï3 für w = {0} î ì1 für ï2 für ï X (w) = í ï3 für ïî4 für w Î {1,2,3,...,12} w Î {13,14,...,24} w Î {25,26,...,36} w = {0} PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.2. Wahrscheinlichkeitsfunktion 7 I. 2. Wahrscheinlichkeitsfunktion Wenn man nun den möglichen Ereignissen jeweils eine Zahl zugeordnet hat, kann man nach den Wahrscheinlichkeiten für diese Zahlen fragen. Jede Zahl wird so wiederum mit ihrer Wahrscheinlichkeit verbunden. Diese Zuordnung geschieht mit Hilfe der Wahrscheinlichkeitsfunktion. Definition: Ist X eine diskrete Zufallsgröß e mit der Wertemenge WX = {a1, a2, ..., an, ...}, so bezeichnet man die Funktion f, die jedem x Î WX die Wahrscheinlichkeit des Ereignisses {X = x} zuordnet, als Wahrscheinlichkeitsfunktion der Zufallsgröß e X: f: WX ® [0; 1], x a f(x), mit f(x) = P(X = x) (Die Funktion f bildet die Wertemenge von X (die Zahlen) auf Wahrscheinlichkeiten ab; jeder Zahl x wird eine Wahrscheinlichkeit f(x) zugeordnet) Um den Definitionsbereich der Funktion f zu vervollständigen, vereinbart man zusätzlich: für alle x Ï WX gilt f(x) = 0 Dies ist verständlich, wenn man bedenkt, dass eine Zahl, die nicht in der Wertemenge von X ist, also keine zugeordneten Ereignisse hat, nie auftreten kann und somit ihre Wahrscheinlichkeit 0 ist. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.2. Wahrscheinlichkeitsfunktion 8 Beispiele In dem oben genannten Roulette lassen sich die Wahrscheinlichkeiten für die Zahlen in der Wertemenge der Zufallsgröß e X leicht berechnen: 1. Beispiel: 2. Beispiel: P(1) = P(„ rot“ ) = 18/37; Fasst man mit der Zufallsgröß e die Ereignisse 1-12 (unteres Drittel), 13-24 (mittleres Drittel), 25-36 P(2) = P(„ schwarz“ ) = 18/37; (oberes Drittel) und 0 (Null) zusammen, erhält man 1 P(3) = P(„ Null“ ) = /37; folgende Wahrscheinlichkeitsfunktion: Damit lässt sich f(x) zeichnen: 60% 50% 60% 50% 40% 30% 20% 10% 0% 40% 18/37 18/37 12/37 30% 12/37 12/37 20% 1/37 10% 1/37 0% 1 1 2 2 3 4 3 P(1) = P(„ 1-12“ ) = 12/37; Die dick durchgezogene Linie auf der X-Achse deutet an, dass überall neben den gekennzeichneten Stellen (bei genau 1, 2 und 3) die Wahrscheinlichkeit gleich 0 ist. Aus den Werten P(2) = P(„ 13-24“ ) = 12/37; P(3) = P(„ 25-36“ ) = 12/37; P(4) = P(„ 0“ ) = 1/37; der Diagramme lässt sich eine wichtige Eigenschaft der Wahrscheinlichkeitsfunktion ablesen: Addiert man die Wahrscheinlichkeiten aller Zahlen, so erhält man 1. n Es gilt also stets: n Beweis: å f (x i =1 i å f (x i = 1 i ) =1 ) = f ( x 1 ) + f ( x 2 ) +...+ f ( x n ) = f (E 1 Ç E 2 Ç...Ç E n ) = f (W) = 1 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.3. Verteilungsfunktion 9 I. 3. Verteilungsfunktion Bei vielen Problemen in der Stochastik ist nicht nur die Kenntnis der Wahrscheinlichkeit dafür wichtig, dass eine Zufallsgröß e X genau einen bestimmten Wert x (Î R) annimmt, also das Ereignis {X = x} eintritt, sondern auch dafür, dass sie in einem Intervall liegt oder einen Wert unter- beziehungsweise überschreitet. Bei technischen Prozessen zum Beispiel ist die Wahrscheinlichkeit von Interesse, mit der eine zulässige Höchstbelastung überschritten wird, bei physikalischen Experimenten sind unter Umständen kritische Temperaturgrenzen einzuhalten. Die Wahrscheinlichkeit, dass die Zufallsgröß e X Werte unterhalb einer Grenze x annimmt, hängt nur von diesem x ab und ist somit eine Funktion von x. Diese Funktion nennt man Verteilungsfunktion der Zufallsgröß e X und bezeichnet sie mit F(x). Der Zusammenhang zwischen der Wahrscheinlichkeits- und der Verteilungsfunktion liegt nahe: Fragt man nach der Wahrscheinlichkeit, dass ein Ereignis oder ein anderes auftritt, so zählt man die beiden Einzelwahrscheinlichkeiten einfach zusammen. Dies ist natürlich nur möglich, wenn diese Ereignisse disjunkt sind, das heiß t E1 Ç E2 = {}. Da diese Eigenschaft aus der Definition der Zufallsgröß e erfolgt (jedem Ereignis wird genau eine Zahl zugeordnet), gilt nach dem Axiom III: Da E1 Ç E2 = {} so gilt P(E1 È E2) = P(E1) + P(E2). Daraus folgt folgende Festlegung: Definition: Eine Funktion F(X) heiß t (kumulative) Verteilungsfunktion der Zufallsgröß e X, wenn sie die Wahrscheinlichkeit für alle Ereignisse {X £ x} wiedergibt: x £x i i £xf (x i ) F(x) = P(X £ x) = å P(X = x )=xå i Aus der weiter oben gewonnenen Eigenschaft, dass die Summe der Wahrscheinlichkeiten aller Ereignisse gleich 1 ist, erkennt man: für x ³ xmax gilt F(x) = 1, mit xmax als höchste Zahl, die die Zufallsgröß e annehmen kann. für x £ xmin gilt F(x) = 0, mit xmin als niedrigste Zahl, die die Zufallsgröß e annehmen kann. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 10 I.3.1. Diskrete Verteilungen I. 3. 1. Diskrete Verteilungen Bei den meisten Zufallsexperimenten (wie unter anderem würfeln oder Münzen werfen), nimmt die auftretende Zufallsgröß e nur endlich (bzw. abzählbar unendlich) viele Werte an. Man nennt sie diskret. Für eine diskrete Zufallsgröß e X gilt: x £x i i i£xf (x ) F(x) = P(X £ x) = å P(X = x )= xå i die Summe erstreckt sich über alle Werte f(xi), für die X £ x zutrifft Beispiel: X = Augenzahl beim Werfen eines L-Würfels mit 6 Seiten 1/6 1/6 1/6 1/6 1/6 20% 1/6 10% 0% 1 2 3 4 5 6 Da die sechs möglichen Ergebnisse alle gleichwahrscheinlich sind (p = 1/6), ergibt sich für die Wahrscheinlichkeitsfunktion das nebenstehende Bild. Die Wahrscheinlichkeiten anderer Werte von X als 1, 2, 3, 4, 5 und 6 sind immer null: Aus diesen Wahrscheinlichkeiten lässt sich die zugehörige Verteilungsfunktion bilden: F(X) 1 6/6 5/6 5/6 } f ( 4) 2/3 1/2 4/6 3/6 1/3 2/6 1/6 1/6 0 0/6 1 2 3 X 4 5 6 Berechnung: F(1) = P(X £ 1) = P(1) = 1/6; F(2) = P(X £ 2) = P(1) + P(2) = 2/6 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com usw. I.3.1. Diskrete Verteilungen 11 Werte außerhalb DX: z.B.: F(1,5) = P(X £ 1.5) = P(X £ 1) = P(1) = 1/6, da zwischen 1 und 1,5 keine Erhöhung der Wahrscheinlichkeit stattfindet, da die Zufallsvariable diese Werte nicht annehmen kann, d.h. es sind alle P(1 < X £ 1,5) = 0 (unmögliche Ereignisse); Fü r x ³ 6 ergibt sich immer F(x) = 1, die Wahrscheinlichkeit des sicheren Ereignisses, da alle möglichen Werte, die der Würfel (bzw. die zugehörige Zufallsgröß e) annehmen kann, eingeschlossen sind. Die Verteilungsfunktionen diskreter Zufallsgröß en sind also Treppenfunktionen. An den Stellen X = xi haben sie Sprungstellen der Höhe f(xi). Der Wertebereich geht von 0 (unmögliches Ereignis, bis -¥) bis 1 (sicheres Ereignis, bis +¥). Wenn X (abzählbar) unendlich viele Werte annimmt, so muss die Summe trotzdem einem Grenzwert zustreben, da selbst bei Summation über alle xi der Wert die Wahrscheinlichkeit 1 nicht überschreiten kann / darf. Aus der Verteilungsfunktion lassen sich nun auf einfache Weise Wahrscheinlichkeiten für folgende Ereignisse ablesen: P(X £ a) = F(a) , nach Definition; P(X > a) = 1 - F(a) , da dies das Gegenereignis zu P(X £ a) ist; P(a < X £ b) = F(b) - F(a) Die letzte Formel kann man sich leicht an folgendem Diagramm veranschaulichen: + = F(b) = F(a) = F(b)-F(a) a b PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 12 I.3.2. Stetige Verteilungen I. 3. 2. Stetige Verteilungen Viele Experimente in der Praxis sind nicht so einfach einzuteilen. Der Zeiger einer Drehscheibe zum Beispiel kann jede reelle Zahl zwischen 0 und 2p (0° bis 360°) annehmen. Die zugehörige Zufallsgröß e ist hier überabzählbar unendlich, man nennt sie stetig. Einige Eigenschaften der diskreten Zufallsgröß e lassen sich auch bei der stetigen anwenden. Es ist auch hier möglich, die Verteilungsfunktion F(x) = P(X £ x) zu bilden. Für das Beispiel „ X = Richtung des Zeigers“ ergibt sich folgende Funktion: für x £ 0 ì0 ï1 F( x) = í x für 0 < x £ 2 p ï 2p für x > 2 p î1 100% 80% 60% 40% 20% 0% 0 p 2p Für eine stetige Zufallsgröß e X gilt: x F(x) = P(X £ x) = -ò¥ f (n ) d n Hier ist die Verteilungsfunktion keine Treppenfunktion mehr. Sie ist im gesamten Definitionsbereich D = R stetig. Bis auf die beiden Knickstellen ist sie auch differenzierbar. Die Ableitung F’(x) = f(x) (‘groß F Strich von x ist klein f von x’) macht eine Aussage darüber, wie stark die Wahrscheinlichkeiten anwachsen. Ein groß er Anstieg an einer Stelle x bedeutet aber, dass sehr viele Versuchsergebnisse in dem Bereich um x zu erwarten sind. Daher nennt man die Ableitung der Verteilungsfunktion einer stetigen Zufallsgröß e auch Dichtefunktion: f(x) = F’(x) PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 13 I.3.2. Stetige Verteilungen Die Dichtefunktion des Beispiels „ X = Richtung des Zeigers“ hat folgende Gestalt: 1/(2p) 1/(2p) 0 0 p 2p Die gemeinsame Verwendung des Buchstabens f für die Dichtefunktion und die Wahrscheinlichkeitsfunktion hat folgenden Grund: Wie bereits festgestellt wurde, ist die Sprunghöhe einer diskreten Verteilungsfunktion genau f(xi). Die Wahrscheinlichkeitsfunktion legt also ebenfalls die „ Steigung“ ihrer Verteilungsfunktion fest. In Formeln ausgedrückt erkennt man den Zusammenhang sehr schnell: x F( x ) = ò f (v)dv bei stetigen Zufallsgröß en und å f (x ) bei diskreten Zufallsgröß en. -¥ F( x ) = xi £x i Beide Funktionen geben die Gesamtwahrscheinlichkeit bis zur Stelle x, also P(X £ x) an. Wie schon bei diskreten, so kann man auch bei stetigen Zufallsgröß en Wahrscheinlichkeiten direkt ablesen. Die Begründungen wären analog zum diskreten Fall zu führen. Deshalb sind sie hier weggelassen und nur die Ergebnisse festgehalten: ¥ P(X > a) = 1 – F(a) = b ò f ( x)dx P(a < X £ b) = F(b) – F(a) = a a a P(X = a) = P(a £ X £ a) = ò f ( x)dx = 0; (im stetigen Fall lassen sich die Gleichheitszeichen beliebig verteilen) a Bei der letzten Formel ò f ( x)dx erkennt man einen Unterschied zwischen der Wahrscheinlichkeitsfunktion und der Dichtefunktion: Wenn a ein unmögliches Ereignis ist, dann weiß man, dass die Wahrscheinlichkeit f(a) = 0 sein muss. Bei einer diskreten Zufallsgröß e kann man auß erdem aus f(a) = 0 darauf schließ en, dass a ein unmögliches Ereignis ist. Bei stetigen Vertei-lungen ist dies nicht der Fall, da f(a) für jede Zahl gleich 0 ist. Das Ereignis selber ist aber trotzdem nicht unbedingt unmöglich. Dies liegt daran, dass sich die Wahrscheinlichkeit auf unendlich viele mögliche Ereignisse aufteilt. Für jeden einzelnen Punkt bleibt dann nur noch unendlich wenig (æ 0) übrig. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.3.3. Maß zahlen / Momente von Verteilungsfunktionen 14 I. 3. 3. Maßzahlen / Momente von Verteilungsfunktionen Um eine Verteilung zu beschreiben verwendet man sogenannte Momente. Sie sind Maß zahlen, die den Verlauf von Verteilungen genauer beschreiben. Die drei wichtigsten sind Erwartungswert, Varianz und Standardabweichung. I. 3. 3. a) Erwartungswert Der Erwartungswert E(X) (meist einfach µ genannt) macht eine Aussage über die Lage der Wahrscheinlichkeitsfunktion bzw. Dichte im Koordinatensystem, also darüber, welchen Wert die Zufallsgröß e X „ im Mittel“ annimmt. Deshalb bezeichnet man ihn auch als Lageparameter. Statistischer / mathematischer Mittelwert Das arithmetische Mittel von n Zahlen x1, x2, ..., xn lässt sich bekanntlich folgendermaß en berechnen: x= x1 + x2 +...+ xn 1 n = å xi n n i =1 [z.B.: 1, 2, 2, 2, 3: (1+2+2+2+3)/5 = 10/5 = 2] Geht man davon aus, dass die Zahlen x i untereinander verschieden sind (was bei Betrachtungen mit Zufallsgröß en ja gegeben ist), so muss man die (absolute) Häufigkeit H(x) ihres Auftretens berücksichtigen. Man spricht vom gewogenen Mittel: x= 1 k å H ( xi ) × xi n i =1 [(1, 2, 2, 2, 3: (1×1+3×2+1×3)/5 = 10/5 = 2] (k ist die Anzahl der untereinander verschiedenen Zahlen aus den n vorhandenen). Nachdem 1 H ( xi ) gleichbedeutend mit der relativen Häufigkeit h(xi) ist, ergibt sich damit für n k den Mittelwert: x = å h( xi ) × xi i =1 Der Mittelwert ist also die Summe der auftretenden verschiedenen Werte von x, gewogen jeweils mit ihrer relativen Häufigkeit. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.3.3.a) Erwartungswert 15 Stochastischer Erwartungswert Die relativen Häufigkeiten h(xi) sind ja (bei vielen Durchführungen des Experiments) Näherungswerte für die Wahrscheinlichkeit f(xi) (® Gesetz der Groß en Zahlen). Deshalb definiert man für die Behandlung von Zufallsgröß en einen entsprechenden Mittelwert und nennt ihn Erwartungswert E(X): Ist X eine diskrete Zufallsgröß e mit der Wertemenge WX = {x1, x2, ..., xn} und den Wahrscheinlichkeiten f(x1), f(x2), ..., f(xn), so heiß t n E(X) = µ = å x × f (x ) i =1 i i Erwartungswert der Zufallsgröß e X1. Diese Definition lässt sich leicht auf stetige Zufallsgröß en übertragen. Für den Erwartungswert verwendet man hier statt der Wahrscheinlichkeitsfunktion die Dichtefunktion und ersetzt die Summe durch ein Integral: Ist X eine stetige Zufallsgröß e mit der Dichte f, so heiß t ¥ E(X) = µ = ò x × f ( x)dx Erwartungswert der Zufallsgröß e X1. -¥ Der Erwartungswert ist eine reelle Zahl, die keineswegs in der Definitionsmenge der Zufallsgröß e enthalten sein muss. So gilt zum Beispiel bei dem Wurf mit einem sechsseitigen L-Würfel: E(X) = 1 × 1 + 2 × 1 + 3 × 1 + 4 × 1 + 5 × 1 + 6 × 1 = 1 × (1 + 2 + 3 + 4 + 5 + 6 ) = 3,5 . 6 6 6 6 6 6 6 Für die Zufallsgröß e X gelten folgende Sätze: · Sind alle Werte xi gleichwahrscheinlich, so ist E(X) gleich dem arithmetischen Mittel der Werte xi (so war es bei der obigen Berechnung von E(X) für einen Würfel). · Sind die Wahrscheinlichkeiten symmetrisch um eine Zahl c angeordnet, so ist: E(X) = E(c) = c (so ist es bei der Augensumme zweier Würfel: E(X) = 7). 1 Den Erwartungswert bezeichnet man mitunter auch als Moment 1. Ordnung PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.3.3.a) Erwartungswert · E(c × X) = c × E(X); [ Bew.: E(c × X) = · E(X + c) = E(X) + c; n n i =1 i =1 å c × x i × P( x i ) = c × å x i × P( x i ) = c × E(X) ] n [ Bew.: E(X + c) = 16 å (x i =1 i + c) × P ( x i ) = n n i =1 i =1 n åx i =1 i × P( x i ) + + å c × P( x i ) = E ( X) + c × å P( x i ) = E( X) + c × 1 = E(X) + c ] Die Beweise für stetige Zufallsgröß en laufen analog. Þ E(a × X + b) = a × E(X) + b Im Beispiel „ X = Winkel des Zeigers einer Drehscheibe“ ist f symmetrisch zu x = p und damit ist E(X) = p. Man kann den Erwartungswert aber auch über die Formel ausrechnen: ¥ 2p 1 E(X) = ò x × f ( x )dx = ò x × dx = 2p -¥ 0 2p é 1 x2 ù 4p 2 = =p. × ê 2p 2 ú 4p û0 ë PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.3.3.b) Varianz (Streuung) 17 I. 3. 3. b) Varianz (Streuung) Für die Beurteilung einer Verteilung ist nicht nur der Mittelwert interessant, sondern auch die „ Streuung“ , also die Abweichungen von diesem Mittelwert. Diese Tatsache kann durch ein einfaches Beispiel der Statistik veranschaulicht werden: Bei einem Test von je 40 Schülern ergaben sich folgende Notenverteilungen: Noten: 1 2 3 4 5 6 Noten: 1 2 3 4 5 6 Anzahl: 12 8 3 8 3 6 Anzahl: 5 8 15 7 4 1 Möchte man nun beide Ergebnisse vergleichen, so rechnet man bei beiden zweckmäß igerweise den Mittelwert aus: x1 = 5 × 1 + ... + 1× 6 120 12 × 1 + 8 × 2 + 3 × 3 + 8 × 4 + 3 × 5 + 6 × 6 120 = = 3 ; x2 = = = 3; 12 + 8 + 3 + 8 + 3 + 6 40 40 40 Beide Mittelwerte sind also gleich. Trotzdem sind die Verteilungen sehr unterschiedlich. Die meisten Noten der ersten Verteilung liegen viel weiter von x entfernt, als bei der zweiten. Deshalb benötigt man zur genaueren Analyse einen Wert für die „ Streuung“ um den Mittelwert. In der Wahrscheinlichkeitsrechnung stellt sich das gleiche Problem mit der Abweichung um den Erwartungswert. Die Abweichung eines Messwertes xi vom Erwartungswert µ ist durch die Differenz xi – µ gegeben. Naheliegend wäre also, als Maß der mittleren Abweichung den Mittelwert all dieser 1 n Differenzen zu nehmen: å ( xi - m ). Dies ist jedoch nicht möglich, da gilt: n i =1 aus µ = (x1+x2+...+xn)/n folgt (x1+x2+...+xn) = n×µ n å (x i =1 i - m ) = (x1 – µ) + (x2 – µ) + ... + (xn – µ) = (x1 + x2 + ... + xn) – n×µ = n×µ – n×µ = 0 Wie schon der Name Mittelwert andeutet, heben sich alle positiven und negativen Abweichungen von µ gegenseitig auf. (Nach den früher bewiesenen Sätzen gilt ja auch: E(X – µ) = E(X) – E(µ) = µ – µ = 0.) PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.3.3.b) Varianz (Streuung) 18 Da für die Abweichung weniger die Richtung als die absolute Größ e von Bedeutung ist, ist der nächste logische Schritt, den absoluten Betrag der Differenz, also |xi – µ| zu verwenden. Um das umständliche Rechnen mit Beträgen zu vermeiden, verwendet man statt dem Betrag das Quadrat und definiert: Ist X eine Zufallsgröß e mit dem Erwartungswert E(X) = µ, so heiß t die reelle Zahl n (im diskreten Fall) s² = V(X) = E( (X – µ)² ) = å (x i =1 i - m) 2 × f (x i ) ¥ (im stetigen Fall) 2 s² = V(X) = E( (X – µ)² ) = ò ( x - m ) × f ( x )dx -¥ Varianz2 von X. [Eine Varianz von 0 kommt also nur dann vor, wenn eine sogenannte Einpunktverteilung vorliegt, also die Zufallsgröß e nur den Wert µ annimmt.] Aufgrund der Eigenschaft der Varianz, den Verlauf der Verteilung zu beschreiben, bezeichnet man sie als Formparameter im Gegensatz zu dem Lageparameter Erwartungswert. Die Wahl des Quadrats hat auß erdem den Vorteil, dass stärkere Abweichungen vom Erwartungswert auch mehr ins Gewicht fallen als kleinere. Für die Varianz gelten folgende Formeln (auf die etwas längeren Beweise wird hier zugunsten der Ü bersichtlichkeit verzichtet): Wichtig ist vor allem der folgende Spezialfall des Verschiebungssatzes für a = 0: · V(X) = E((X – a)²) – (E(X) – a)² Þ V(X) = E(X²) – E(X)² = E(X²) - µ²; („ Varianz ist der Erwartungswert der Quadrate minus dem Quadrat des Erwartungswerts“ ) · V(a × X + b) = a² × V(X); · V(c) = 0 [ Bew.: V(c) = E(c²) – E(c)² = c² – c² = 0 oder: V(c) = E[c – E(c)]² = E(c – c) = E(0) = 0 ] 2 Andere Bezeichnungen für die Varianz sind: Streuungsquadrat, mittlere quadratische Abweichung, D²(X) (vom englischen ‘deviation’), Dispersion, zentrales Moment 2. Ordnung PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.3.3.c) Standardabweichung 19 I. 3. 3. c) Standardabweichung Da bei vielen praktischen Anwendungen Elemente eines Größ enbereichs vorkommen (also Werte mit einer Benennung), verwendet man auch die Wurzel aus der Varianz, die dann die gleiche Einheit hat, wie die Größ en selbst. Man nennt s = Var (X ) die Standardabweichung3 einer Verteilung. Bei dem vorher behandelten Notenbeispiel erkennt man nun die unterschiedlichen Verteilungen an den Werten für die Standardabweichung s: 1) (1 - 3) 2 × 12 40 + (2 - 3) 2 × 8 40 + (3 - 3) 2 × 3 40 + (4 - 3) 2 × 8 40 + (5 - 3) 2 × 3 40 + (6 - 3) 2 × 6 40 = = (4 × 12 + 1 × 8 + 0 × 3 + 1 × 8 + 4 × 3 + 9 × 6) / 40 = 130 / 40 = 3,25 Þ s = 1,80 2) (1 - 3) 2 × 5 40 + (2 - 3) 2 × 8 40 + (3 - 3) 2 × 15 40 + (4 - 3) 2 × 7 40 + (5 - 3) 2 × 4 40 + (6 - 3) 2 × 140 = = (4 × 5 + 1 × 8 + 0 × 15 + 1 × 7 + 4 × 4 + 9 × 1) / 40 = 60 / 40 = 1,5 Im folgenden Diagramm sind zu dieser Þ s = 1,22 Notenverteilung die jeweiligen Standardabweichungen und der Mittelwert eingetragen. Mit Hilfe der Varianz erkennt man sofort die unterschied-liche Verteilung der beiden Notenergebnisse trotz der jeweils gleichen Durchschnittsnote: sb a sa 1 3 2 µ =3 b 4 5 Die Standardabweichung wird oft auch als Streuung oder D(X) bezeichnet PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 6 I.3.4. Standardisierung 20 I. 3. 4. Standardisierung Um unterschiedliche Verteilungen gut miteinander vergleichen zu können, müssen sie bestimmte Bedingungen erfüllen. Die sogenannte Standardisierung transformiert eine Zufallsgröß e so, dass sie den Erwartungswert E(X) = 0 und die Standardabweichung s = 1 hat. Diese neue Zufallsgröß e nennt man meist Z4. Þ Z:= X - E(X) = X - m heiß t die zu X gehörende standardisierte Zufallsgröß e. Bei ihr gilt: E(Z) = 0 und s = 1. Unter Verwendung der bewiesenen Formeln für den Erwartungswert und die Standardabweichung lässt sich folgender Beweis führen (man berechnet den Erwartungswert und die Standardabweichung für beliebige Zufallsgröß en X): 1 æ X - E( X) ö æ1 ö 1 E( Z) = Eç ÷ = Eç × ( X - E( X))÷ = × ( E( X) - E( E( X))) = × ( E( X) - E( X)) = 0 è ø ès ø s s s æ 1 ö æ 1 ö æ X æ X - E ( X) ö E ( X) ö s ( X) =1 × X÷ = sç s ( Z) = s ç ÷ × s ( X) = ÷ = sç ÷ = sç è s ( X) ø è s ( X) ø è s ( X) s ( X) ø è s ( X) ø s ( X) An der Standardisierung der beiden Notenverteilungen von vorher erkennt man, dass die Verteilungen trotz gleichem E(X) und s ihre charakteristischen Eigenschaften behalten haben: sa = sb = 1 a b -1,5 -0,5 µ a = µ b = 0 0,5 1,5 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com I.3.4. Standardisierung 21 Anschaulich lässt sich der Vorgang der Standardisierung zum Beispiel gut bei der später genauer eingeführten Binomialverteilung zeigen. Bei der folgenden Wahrscheinlichkeitsfunktion (mit völlig willkürlich gewählten Parametern) ist ein Balkenstück des Graphen hervorgehoben: Bei der Standardisierung wird die Breite (und damit auch die Fläche) der einzelnen II. Rechtecke B(2) des Histogramms durch s dividiert. Da aber die Flächen dieser Rechtecke ein Maß für die jeweilige Wahrscheinlichkeit darstellen, 1 müssen die Höhen des Histogramms mit s multipliziert werden. Die Standardsierung ist somit also eine Dividiert durch s B(2) s flächentreue Abbildung. Schließ lich wirkt Verschiebung um Ausse-hen sich nur noch die µ nach links auf das der standardisierten Verteilungsfunktion aus. multipliziert mit s 1/s B(2) 1/s Die Breite des Flächenstück B(2) wurde im ersten Schritt von 1 auf 1/s verkürzt. Deshalb wird die Höhe von B(2) mit s auf s×B(2) vergröß ert. Die Höhen der standardisierten Verteilungsfunktion sind also s×B(k). 4 Auch die Bezeichnung U ist üblich (vom englischen ‘unit’). Wegen der Division durch s ist U immer dimensionslos. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II. Spezielle Verteilungen II.1. Binomialverteilung 22 Spezielle Verteilungen Nach diesen allgemeinen Betrachtungen über Wahrscheinlichkeits-, Dichte- und Verteilungsfunktionen sollen nun die wichtigsten besonderen Verteilungen der Stochastik vorgestellt werden. Sie haben alle eine groß e praktische Bedeutung, auf die in den jeweiligen Abschnitten noch besonders eingegangen wird. Die Vorstellung dieser Verteilungen ist deshalb so wichtig, da nur so einheitliche Schreibweisen und Bezeichnungen garantiert werden können, um danach keine Probleme bei dem Vergleich der Verteilungen zu haben. II. 1. Binomialverteilung Die wohl am häufigsten eingeführte Verteilung beruht auf den sogenannten BernoulliExperimenten5. Diese zeichnen sich dadurch aus, dass sie (zumindest theoretisch) beliebig oft wiederholbar sind, und dass sich trotzdem die Wahrscheinlichkeit für die möglichen Ereignisse nicht ändert. Das heiß t, die Durchführungen müssen voneinander unabhängig sein. Das wohl wichtigste Kriterium ist aber, dass (nur) genau zwei einander ausschließ ende Ereignisse eintreten können. Dies scheint eine strenge Einschränkung zu sein, ist jedoch bei einer Vielzahl von Ereignissen der Fall. Beim Wurf einer Münze unterscheidet man zum Beispiel meist zwischen Kopf und Zahl, bei Losen zwischen Gewinn und Niete. Selbst Experimente mit mehreren möglichen Ergebnissen kann man geeignet einteilen: Bei einem Würfel kann man so unter anderem nur die Ereignisse „ gerade“ und „ ungerade“ oder „ größ er 3“ und „ kleiner gleich 3“ betrachten. 5 Jakob BERNOULLI, Basel 1654 - 1705; seit 1687 Professor der Mathematik in Basel; trug u.a. entscheidend zur Einführung der Infinitesimalrechnung bei; in seiner Ars conjectandi Wahrscheinlichkeitsrechnung (Bernoullische Zahlen und Gesetz der groß en Zahlen) PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com förderte er die II.1. Binomialverteilung 23 Herleitung: Die Wahrscheinlichkeit für das Ereignis E sei p, für das Gegenereignis E´ sei sie q = 1 - p. Mit n wird die Anzahl der Durchführungen, mit k die Zahl der günstig ausgegangenen Bernoulli-Experimente bezeichnet. Die Wahrscheinlichkeit, dass k mal das Ereignis E (und damit n-k mal E´) in einer ænö bestimmten Reihenfolge eintritt, ist somit pn × qn-k. Es gibt aber çç ÷÷ Möglichkeiten um k mal èkø E und n-k mal E´ anzuordnen. æ nö Deshalb gilt insgesamt: P(X = k) = ç ÷ × p k × q n- k . è kø Þ Die Wahrscheinlichkeit, dass bei n Durchführungen eines Bernoulli-Experiments das Ereignis E mit der Wahrscheinlichkeit P(E) = p genau k-mal eintritt, ist mit der Wahrscheinlichkeitsfunktion der Binomialverteilung auszurechnen: B(n;p;k) = æç n ö÷ × p k èkø × (1 - p ) n -k mit n Î N, k Î {0, 1, 2, ..., n} und q = 1 - p. Nach der allgemeinen Definition von Verteilungsfunktionen lautet die (kumulative) Binomialverteilungsfunktion (wobei n Î N und p Î [0; 1]): r x<0 ì0 n k n -k fü F( x ) = ïí å æçè k ö÷ø × p × (1 - p ) für 0 £ x < n ïï1 0 £ k £ x für x ³ n î Die Eigenschaft jeder Verteilungsfunktion, dass F(n) = 1 sein muss, ist erf üllt: Nach dem binomischen Lehrsatz gilt nämlich: n F(n) = æ nö å çè k ÷ø p k × q n- k = ( p + q) n (daher auch der Name). Aus q = 1 - p folgt p + q = 1 und damit F(n) = 1n = 1. k =0 Eine Bernoulli-Kette der Länge n lässt sich durch die Summe von n sogenannten zweipunktverteilten Zufallsgröß en Xi darstellen. Diese können nur die zwei Werte 0 und 1 mit den Wahrscheinlichkeiten p und q annehmen. Sie haben den Erwartungswert E(Xi) = 1×p+0×q = p. und die Varianz V(Xi) = q²×p + p²×q = p×q×(q + p) = p×q. Mit den Formeln für die Summe aus mehreren unabhängigen Zufallsgröß en lässt sich berechnen: E(X) = E(X1 + X2 + ... + Xn) = E(X1) + E(X2) + ... + E(Xn) = n×E(Xi) = n×p; V(X) = V(X1 + X2 + ... + Xn) = V(X1) + V(X2) + ... + V(Xn) = n×V(Xi) = n×p×q; PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.1. Binomialverteilung 24 Beispiel: Angenommen, dass bei Flugzeugen die Motoren unabhängig voneinander mit der Wahrscheinlichkeit q = 1 – p ausfallen. So ein Flugzeug kann sein Ziel dann noch erreichen, wenn wenigstens die Hälfte seiner Motoren noch funktionieren. Welche Maschine sollte man vorziehen, einmotorig, mit zwei oder mit drei Motoren? Hängt diese Entscheidung von q ab? X = Anzahl der funktionierenden Motoren bei einem Flug · 1-motorig: P(„ erfolgreicher Flug“ ) = P(X = 1) = p · 2-motorig: P(„ erfolgreicher Flug“ ) = P(X = 1) = P(X = 1) + P(X = 2) = æ 2ö = 1 – P(X = 0) = 1 - çç ÷÷ × p 0 q 2 = 1 - q 2 è0ø · 3-motorig: P(„ erfolgreicher Flug“ ) = P(X = 2) = P(X = 2) + P(X = 3) = æ 3ö æ 3ö = çç ÷÷p 2 q1 + çç ÷÷p 3 q 0 = 3p 2 q + p 3 = 3p 2 (1 - p ) + p 3 = 3p 2 - 3p 3 + p 3 = 3p 2 - 2p 3 è 2ø è 3ø Zum Vergleich, welche Art Flugzeug nun wann die beste ist, prüft man: · P(„ Flugzeug mit 1 Motor kommt an“ ) ¬ P(„ Flugzeug mit 2 Motoren kommt an“ )? 1 – q² ¬ 1 – q; q² ¬ q Þ für 0 < q < 1 gilt 1 – q² > p; Bei q = 0 bzw. q = 1 ist es also egal, welches Flugzeug man verwendet. In allen anderen Fällen empfiehlt es sich aber die zweimotorige Maschine zu wählen. · P(„ Flugzeug mit 2 Motoren kommt an“ ) ¬ P(„ Flugzeug mit 3 Motoren kommt an“ )? 1 – q² ¬ 3p² – 2p³; Linke Seite: 1 – (1 – p)² = 1 – (1 – 2p + p²) = 2p – p² 2p³ – 3p² + 2p – p² ¬ 0; 2p³ – 4p² + 2p ¬ 0; p² – 2p + 1 ¬ 0; (p – 1)² ¬ 0; Ignoriert man die Trivialfälle p = 0 und p = 1 (bei denen es keine Rolle spielt, welche Flugzeugkonfiguration man verwendet, da man immer abstürzt bzw. ankommt), so erkennt man, dass es keine p gibt, für das die dreimotorige sicherer als der Flieger mit nur zwei Motoren ist. Muss man sich also zwischen Flugzeugen mit einem, zwei oder drei Motoren entscheiden, so sollte man hier das doppelt bestückte Modell wählen. Wie die Rechnung zeigt, ist eine Maschine mit vier Motoren nur dann sicherer als eine Zweimotorige, wenn die Ausfallwahrscheinlichkeit q der einzelnen Motoren unter 1/3 liegt. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.1. Binomialverteilung 25 Besonders anschaulich lässt sich die Verteilung, die auf Bernoulli-Experimenten beruht, mit einem sogenannten Galton-Brett6 zeigen: Hier treffen Kugeln auf gleichmäß ig angeordnete Hindernisse (zum Beispiel halb eingeschlagene Nägel). Der Raum unterhalb dieser Anordnung ist in gleich breite Kammern aufgeteilt, in die die Kugeln fallen. In jeder Nagelebene ist die Wahrscheinlichkeit, dass die Kugel nach rechts (oder links) hinunterfällt 0,5 (50 Prozent). Deshalb sind die Kugeln in den Auffanggefäß en im Idealfall binomial verteilt (mit den Parametern p = 0,5 und n = Anzahl der Nägel). Auch Verteilungen mit Trefferwahrscheinlichkeiten ungleich 0,5 lassen sich auf diese Art und Weise realisieren: Man ordnet mehrere Wasserbehälter untereinander an. Jeder dieser Behälter besitzt zwei Abläufe, einen nach rechts und einen nach links. Das Verhältnis der Querschnitte dieser beiden Rohre bestimmt die „ Wahrscheinlichkeit“ , mit der das Wasser in die jeweiligen Richtungen abfließ t. Ist der linke Abfluss zum Beispiel doppelt so groß wie der rechte, so fließ t das Wasser mit einer Wahrscheinlichkeit von 2/3 in den nächsten Behälter nach links (beziehungsweise jedes Atom bewegt sich mit dieser Wahrscheinlichkeit in diese Richtung). 6 Sir Francis GALTON, England 1822 - 1911; er war tätig im Bereich der Geographie, Meteorologie, Vererbungslehre und erarbeitete (um sein angesammeltes statistisches Material zu verarbeiten) die Korrelationsrechnung. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.2. Hypergeometrische Verteilung 26 II. 2. Hypergeometrische Verteilung Obwohl im stochastischen Umgang mit Wahrscheinlichkeiten die Binomialverteilung am häufigsten angewandt wird, sind die meisten Zufallsexperimente hypergeometrisch verteilt. Die hypergeometrische Verteilung gibt nämlich die Wahrscheinlichkeit für Versuche ohne Zurücklegen wieder. Sie ist daher unter anderem für alle Stichproben geeignet, bei denen durch Untersuchung einiger Teile auf den Gesamtanteil von Merkmalen in einer größ eren Menge geschlossen werden soll. Hierbei werden die untersuchten Teile natürlich gleichzeitig gezogen beziehungsweise nicht mehr zurückgegeben. Trotzdem wird häufig die Binomialverteilung zur Berechnung angewandt, da sie – wie in Punkt III.1. gezeigt wird – für größ ere Mengen eine gute Näherung darstellt. Herleitung: Es soll die Wahrscheinlichkeit ermittelt werden, dass bei einer Stichprobe genau k Stücke defekt sind (beziehungsweise allgemein ein besonderes Merkmal besitzen), wenn n-mal (ohne Zurücklegen) aus einer Menge N mit insgesamt K defekten Stücken gezogen wird. Zuerst gibt es ‚K über k‘ Möglichkeiten, aus K defekten Teilen k herauszugreifen und die Anzahl der Kombinationen der n – k herausgegriffenen, nicht defekten Stücke innerhalb der Restmenge von N– K Teilen errechnet sich durch ‚(N– K) über (n– k)‘. Insgesamt ergeben æKö æN - Kö ÷÷ Möglichkeiten. Stichproben vom Umfang n aus einer sich also bis jetzt çç ÷÷ × çç èkø è n-k ø Menge von N Elementen zu ziehen sind auf ‚N über n‘ Arten möglich. Daraus ergibt sich æKö æN - Kö ÷÷ nun die Wahrscheinlichkeit von çç ÷÷ × çç èkø è n-k ø æ Nö çç ÷÷ . ènø Definition: Die Wahrscheinlichkeit, dass sich in einer Stichprobe vom Umfang n aus einer Menge mit N Elementen, von denen K eine bestimmte Eigenschaft haben, genau k Elemente mit dieser Eigenschaft befinden ist hypergeometrisch verteilt. Es gilt: æK ö æN - K ö çç ÷÷ × çç ÷÷ èkø è n-k ø P(X = k) = H(N; K; n; k) = æNö çç ÷÷ ènø PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.2. Hypergeometrische Verteilung 27 Die Berechnung der Momente der hypergeometrischen Verteilung ist nicht so einfach wie bei der Binomialverteilung, da hier die einzelnen Versuche nicht unabhängig sind. Man muss also berechnen: E(X ) = Min ( n ; K ) Min ( n ; K ) k =0 k =0 å k × H(N; K; n; k ) = å æKö æN - Kö K æ K - 1ö æ N - K ö çç ÷÷ × çç ÷÷ Min (n ; K ) ÷×ç ÷ ×ç kø è n-k ø k çè k - 1 ÷ø çè n - k ÷ø è k× = å k× = æ Nö N æ N - 1ö k =1 çç ÷÷ ÷ ×ç n çè n - 1 ÷ø ènø æ Nö æ K ö K æ K - 1ö N! N N æ N - 1ö (N - 1)! çç ÷÷ = ÷÷; ana log : çç ÷÷ = × çç ÷÷ = × = × çç è n ø n!×(N - n )! n (n - 1)!×[(N - 1)!-(n - 1)]! n è n - 1 ø è k ø k è k -1ø = n× m = k -1 = n× K × N Min ( n -1; K -1) å m =0 æ K - 1ö æ ( N - 1) - (K - 1)ö çç ÷÷ × çç ÷÷ Min ( n -1; K -1) è m ø è n -1- m ø = n × K × å H(N - 1; K - 1; n - 1; m ) = N æ N - 1ö m=0 çç ÷÷ è n -1 ø K Min (n -1; K -1) K × å FH (m ) = n × N 142 N m=0 43 =1 K Der Erwartungswert der hypergeometrischen Verteilung ist daher: E(X) = n × N = n×p Die Varianz auszurechnen erfordert noch etwas mehr Aufwand. Man verwendet als Ansatz V(X) = E(X²) – E(X)² und erhält schließ lich: V(X) = npq × ‚Korrekturglied‘ Die Varianz der hypergeometrischen Verteilung ist: K æ Kö N-n V(X) = n × N × çè 1 - N ÷ø × N - 1 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.2. Hypergeometrische Verteilung 28 Die hypergeometrische Verteilung ist zu verwenden, wenn man mehrere Elemente gleichzeitig (= ohne Zurücklegen) zieht. So zum Beispiel bei vielen Kartenspielen: Beispiel: Es lassen sich auf diese Weise beispielsweise schnell folgende Wahrscheinlichkeiten beim Schafkopf[en] ermitteln: æ 8 ö æ 24 ö çç ÷÷ × çç ÷÷ è 8 ø è 0 ø = 1 = 9,5 ×10 -8 æ 32 ö æ 32 ö çç ÷÷ çç ÷÷ è8ø è8ø P(„ alle 4 Ober und 4 Unter in einer Hand“ ) = = P(„ 8 bestimmte Karten in der Hand“ ) = Þ n = 8; N = 32; K = 8; k = 8; Die Chancen stehen also 1 : 10518300, also 1 : 107; P(„ alle 4 Ober“ ) = P(„ 4 bestimmte Karten“ ) = æ 4 ö æ 28 ö çç ÷÷ × çç ÷÷ è 4 ø è 4 ø = 20475 = 1,9 ×10 -3 æ 32 ö æ 32 ö çç ÷÷ çç ÷÷ è8ø è8ø Þ n = 8; N = 32; K = 4; k = 4; Die Chancen stehen also 1 : 514; P(„ 6 oder mehr Trümpfe für ein beliebiges Solo“ ) = P(„ 6, 7 oder 8 aus 14 möglichen“ ) = Þ n = 8; N = 32; K = 14; k ³ 6; éæ14 ö æ18 ö æ14 ö æ18 ö æ14 ö æ18 öù = êçç ÷÷ × çç ÷÷ + çç ÷÷ × çç ÷÷ + çç ÷÷ × çç ÷÷ú ëè 6 ø è 2 ø è 7 ø è 1 ø è 8 ø è 0 øû = P(6) + P(7) + P(8) = æ 32 ö 459459 + 61776 + 3003 çç ÷÷ = = 0,050 10518300 è8ø Die Chancen stehen somit 1 : 20; PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.3. Negativ-Binomialverteilung 29 II. 3. Negativ-Binomialverteilung Der Negativ-Binomialverteilung liegt zwar wie bei der Binomialverteilung ein BernoulliExperiment zu Grunde, aber mit der Einschränkung, dass (nur) so oft wiederholt wird, bis genau r-mal ‘Erfolg’ eingetreten ist. Die Zufallsgröß e X bezeichnet dann die Anzahl der benötigten Versuche (r = 1 entspricht also zum Beispiel der Fragestellung: ‘Wie oft muss man etwas versuchen, bis es [einmal] klappt?’). Da r Erfolge eintreten müssen, kann X die Werte r, r+1, r+2, ... annehmen. Die Versuchsreihe kann theoretisch auch endlos fortgesetzt werden müssen. Um zur Wahrscheinlichkeitsfunktion zu kommen, überlegt man: Der letzte Versuch muss erfolgreich ausgegangen sein. Er darf daher nicht berücksichtigt werden. æ k - 1ö Bei k Versuchen gibt es genau çç ÷÷ Möglichkeiten, die restlichen r – 1 nötigen Ausè r -1ø führungen zu verteilen. Wie bei der Bernoulli-Kette gezeigt wurde, ist die Wahrscheinlichkeit, dass so eine Versuchsreihe mit genau r Erfolgen und damit k – r Fehlschlägen auftritt, gleich pr×qk-r. æ k - 1ö r k - r Es ergibt sich bis jetzt also insgesamt: P(X = k) = ç ÷ × p × q wobei k ³ r. è r - 1ø Interessant ist nun hauptsächlich die Anzahl der Versuche, die nicht erfolgreich ausgegangen sind. Da aber immer mindestens r Versuche durchgeführt werden müssen, berechnet man zweckmäß igerweise die Verteilung der Zufallsgröß e Y = X - r. Für die Anzahl der Versuche muss jetzt ein anderer Buchstabe verwendet werden (hier m statt k). æ m + r - 1ö r m+ r - r Das bedeutet: P(Y = m) = P(X-r = m) = P(X = m+r) = ç . ÷ ×p ×q è r -1 ø ( r + m - 1) ! ( r + m - 1) ! æ r + m - 1ö æ r + m - 1ö Da ç = =ç ÷= ÷ ist, gilt: è r - 1 ø ( r - 1) !× ( r + m - 1 - r + 1) ! ( r - 1) !× m! è m ø Definition: Eine negativ-binomialverteilte Zufallsgröß e liegt dann vor, wenn für die æ r + m - 1ö r m ÷÷ × p q Wahrscheinlichkeitsfunktion gilt: P(X = m) = çç m è ø PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.3. Negativ-Binomialverteilung 30 Diese Schreibweise lässt sich formal noch umformulieren zu7: æ - rö m P(Y = m) = ç ÷ × p r × ( -q ) . Daher auch der Name negativ-binomial. è mø Die Negativ-Binomialverteilung gibt also die Wahrscheinlichkeit wieder, dass vor dem r-ten Erfolg genau m Misserfolge liegen. Bei der Herleitung des Erwartungswerts und der Varianz bedient man sich desselben Tricks wie schon bei der Binomialverteilung: Man teilt die Zufallsgröß e Y auf und berechnet: E(Y) = E(X – r) = E(X) – E(r) = E(X1) + E(X2) + ... + E(Xr) – E(r) = r×E(Xi) – r Die einzelnen Xi sind geometrisch verteilt, das heiß t es gilt: E(Xi) = 1/p. æ1 ö æ1 - p ö 1 q ÷÷ = r × E(Y ) = r × - r = r × çç - 1÷÷ = r × çç p p èp ø è p ø Für die Varianz folgt entsprechend: V(Y) = V(X1) + ... + V(Xr) – V(r) = r×V(Xi) = r × q E(Y) = r × p q p2 q V(Y) = r × p 2 Nun soll diese Wahrscheinlichkeitsberechnung mit Hilfe der Negativ-Binomialverteilung noch auf ein kurzes Beispiel angewandt werden: Beispiel: Ein Schüler macht seine Hausaufgaben mit einer Wahrscheinlichkeit von 0,4. Wie groß ist nun die Wahrscheinlichkeit, dass er am Ende einer Woche (also am fünften Tag) zum dritten Mal vorbereitet in die Schule geht? Y = Anzahl der Tage, an denen er keine Aufgaben bearbeitet hat Die Zufallsgröß e X ist dann negativ-binomial verteilt und es gilt: P(„ Am 5. Tag zum 3. Mal vorbereitet“ ) = P(„ Zweimal nicht vorbereitet“ ) = P(Y = 2); Die Parameter sind: m = 2; p = 0,4; q = 1 – p = 0,6; r = 3; æ 3 + 2 - 1ö ÷÷ × 0,43 × 0,6 2 = 0,13824 = 13,8% P(Y = 2) = çç 2 è ø 7 m Faktoren 644444444744444444 8 æ r + m - 1ö ( r + m - 1)! ( r + m - 1) × ... × ( r + 1) × r ( -r ) ! m ( -r - m + 1) × ( -r - m + 2) × ... × ( -r - 1) × ( -r) m m æ - rö = = ( -1) × = ( -1) × = ( -1) × ç ÷ ç ÷= m! m! m!× ( -r - m)! è m ø m!× ( r - 1) ! è mø Das æ- rö r ÷÷ × p × (- q ) m . èmø ( -1) m zieht man in qm hinein und es ergibt sich schließ lich: P(Y = m) = çç PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.4. Geometrische Verteilung 31 II. 4. Geometrische Verteilung Ein Bernoulli-Experiment (bei dem also nur Erfolg oder Misserfolg möglich ist), wird solange durchgeführt, bis zum ersten Mal „ Erfolg“ auftritt. Ist dies beim k-ten Versuch der Fall, so müssen die ersten k – 1 Versuche Misserfolge gewesen sein: M M MKM 14 4244 3 E { k - ter Versuch ( k -1)- mal Die Zufallsgröß e X bezeichnet die Anzahl der benötigten Versuche. Kürzt man noch ab: P(„ Erfolg“ ) =: p und P(„ Misserfolg“ ) = 1 – p =: q, so gilt: Eine Zufallsgröß e nennt man geometrisch verteilt, wenn für ihre Wahrscheinlichkeitsfunktion gilt: P(X = k) = qk-1×p für k Î N Ihr Name rührt daher, dass die Wahrscheinlichkeiten q k -1 × p Glieder einer geometrischen Reihe sind. Die geometrische Verteilung ist ein Spezialfall der bereits eingeführten Negativ-Binomialverteilung. Dort wurde die Wahrscheinlichkeit der Anzahl der Versuche ausgerechnet, die æ k - 1ö r k - r ÷÷ × p × q . Setzt man r nun nötig sind, um genau r Erfolge gehabt zu haben: P(X = k) = çç è r -1 ø gleich 1, so erhält man genau die geometrische Verteilung: æ k - 1ö 1 k -1 ÷÷ × p × q = q k -1 × p . P(X = k) = çç 0 è ø Es gilt hierbei: P(X ³ k) = ¥ ¥ n =k unendliche geometrische Re ihe : a s ¥ = 1 ; a 1 = q 0 -1 = q -1 ; q = q 1- q ¥ å q n-1 × p = p × q k × å q n -1-k = p × q k × å q n -1 = = p × qk × n=k - n=0 -1 q q = p × qk × = q k -1 1- q p Bei der geometrischen Verteilung gilt: P(X ³ k) = qk-1 . Daraus lässt sich berechnen: qm-1 = P(X ³ m) = P(X > m – 1) = 1 – P(X £ m – 1) Setzt man k = m – 1, so erhält man: P(X £ k) = 1 – qk PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.4. Geometrische Verteilung 32 Die Momente der geometrischen Verteilung lassen sich aus der Definition des Erwartungswerts und den Formeln zur Reihenentwicklung berechnen. Auß erdem differenziert man und verwendet die Beziehung d k ( q ) = k × q k -1 : dq d k d æ ¥ ö d æ q ö 1 × (1 - q ) - 1 × (- 1) ÷÷ = p × = q = p × ç å q k ÷ = p × çç dq è k =1 ø dq è 1 - q ø (1 - q )2 k =1 dq ¥ ¥ E(X ) = å k × q k -1 × p = p × å k =1 = p× p+q 1 1 =p 2 = 2 p p p unendliche geometrische Re ihe (FS S.51) : s¥ = Um zur Varianz zu gelangen, muss man a1 ; a 1 = q 1 = q; q = q; 1- q zweimal ableiten und erhält schließ lich nach ganz ähnlicher Rechnung: V(X) = q p2 E(X) = 1 p Beispiel: Angenommen, ein Lehrer hätte sich zu Beginn seiner Laufzeit 20 verschiedene Schulaufgaben zu einem Stoffbereich vorbereitet. Jetzt wählt er jedes Jahr eine davon zufällig aus und legt sie dann wieder zu seiner Sammlung zurück. Wie hoch ist die Wahrscheinlichkeit, dass er die erste Schulaufgabe, die er ausgewählt hat, a) nach genau 21 Jahren b) nach frühestens 21 Jahren c) innerhalb der nächsten 4 Jahre noch einmal schreibt? Die Parameter der Verteilung, die hier zugrunde liegt, sind: p = 1/20; q = 19/20; 20 a) P(X = 21) = q k -1 1 æ 1920 ö æ 19 ö ×p = ç ÷ × = çç 21 ÷÷ = 0,0179 = 1,8 % è 20 ø 20 è 19 ø 20 æ 19 ö b) P(X ³ 21) = q k -1 = ç ÷ = 0,35849 = 35,8 % è 20 ø 4 æ 19 ö c) P(X £ 4) = P(X < 5) = 1 – P(X ³ 5) = 1 - ç ÷ = 0,18549 = 18,5 % è 20 ø Oder: P(X £ 4) = P(X = 1) + P(X = 2) + P(X = 3) + P(X = 4) = q0p + q1p + q2p + q3p = é 19 æ 19 ö 2 æ 19 ö 3 ù 1 = ê1 + +ç ÷ +ç ÷ ú× = 18,5 % ü ëê 20 è 20 ø è 20 ø ûú 20 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.5. Poisson-Verteilung 33 II. 5. Poisson-Verteilung Da für groß e Zahlen die Fakultäten in der Formel für die binomial verteilten Wahrscheinlichkeiten sehr schnell Schwierigkeiten bereiteten, suchte man nach einer geeigneten Nä herung. Daher wird die Poisson-Verteilung hier auch aus der Binomialverteilung hergeleitet: n æ n ö k n -k n! n × (n - 1) ×...× (n - k + 1) p k × n k (1 - p ) n -k k P( X = k ) = çç ÷÷ × p × q = × p (1 - p ) = × × k!(n - k )! k! nk (1 - p )k èkø Im letzten Schritt wurde mit nk erweitert und aufgeteilt: (1 - p ) n -k = (1- p )n (1- p )k 1 × (1 - 1n ) ×...× (1 - kn-1 ) m k æ m ö n × (n - 1) ×...× (n - k + 1) (p × n ) n ( ) 1 p P(X = k ) = × × = × × ç1 - ÷ k k k! è n ø k! n k × (1 - p ) 1 - mn k ( ) pk×nk Zuerst wurden nur die einzelnen Faktoren sinnvoll vertauscht und zusammengefasst. Statt p×n lässt sich auch Binomialvertei-lung ist ja gerade µ n in (p×n)k schreiben (der Erwartungswert der n×p) und ebenso kann man p durch m ersetzen. n Gleichzeitig wurde noch der groß e Bruch durch n geteilt, um eine Grenzwertbestimmung durchführen zu können. Nun kann man daran gehen, den Grenzwert der Binomialverteilung für n ® ¥ zu bestimmen: Laut Formelsammlung Seite 55 gilt: lim(1 + n ®¥ ) k n n = ek ( Þ lim 1 - mn n ®¥ ) n = e -m Alle Brüche mit n im Nenner streben gegen 0: lim B( n; p; k ) = n ®¥ k 1 × 1 ×...× 1 m k - m -m m × × e = e k! (1 - 0)k k! Definition: Man spricht von einer Poisson-verteilten Zufallsgröß e mit Erwartungswert µ, wenn für die Wahrscheinlichkeitsfunktion gilt: P(X = k) = e - m × mk k! PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.5. Poisson-Verteilung 34 Die Poisson-Verteilung wird hauptsächlich dann verwendet, wenn Wahrscheinlichkeiten von Ereignissen berechnet werden sollen, die genau k-mal innerhalb einer vorgegebenen Zeitspanne eintreffen. Also zum Beispiel bei Unfä llen, Selbstmord, aber auch bei Druckfehlern in einem Buch, bei Rosinen in einem Kuchen oder Sterne im Kosmos. Da für konstanten Erwartungswert µ = n×p die Trefferwahrscheinlichkeit p gegen 0 streben muss, wenn n gegen unendlich geht, muss p also sehr klein sein, um eine gute Annäherung an die Binomialverteilung gewährleisten zu können (siehe auch Punkt III.2.). Deshalb nennt man die Poisson-Verteilung häufig auch Verteilung der seltenen Ereignisse. In diesem Zusammenhang werden in vielen Büchern über dieses Thema nun als Beispiel die Versuchsergebnisse von Geiger und Rutherford erwähnt. Die beiden Physiker beobachteten Zerfallsvorgänge radioaktiver Präparate und registrierten die Anzahl der Zerfälle in gewissen Zeitabschnitten. Die genauere Beschreibung der Experimente und ihrer Ergebnisse würde aber einen unverhältnismäß ig groß en Raum einnehmen, so dass hier nur auf diese Versuche hingewiesen werden soll8. Als Beispiel für die Poisson-Verteilung soll hier vielmehr die Auswertung einer Statistik dienen: Am Karlsgymnasium Bad Reichenhall befinden sich 878 Schüler9. Nachdem die Geburtstage aller Gymnasiasten erfasst und sortiert wurden, konnte gezählt werden, wieviele Tage es gibt, an denen genau k Schüler gleichzeitig Geburtstag haben. Die Auswertung dieser Tabellen ergab letztendlich folgende Verteilung: 0 1 2 3 4 5 6 7 8 9 Anzahl der jeweiligen Tage: 47 79 90 60 42 29 5 9 3 1 k Schüler gleichzeitig Geburtstag: Der Mittelwert, der sich aus dieser Verteilung ergibt, ist: x= 0 × 47 + 1 × 79 + 2 × 90 + 3 × 60 + 4 × 42 + 5 × 29 + 6 × 5 + 7 × 9 + 8 × 3 + 1 × 9 878 = = 2,41 47 + 79 + 90 + 60 + 42 + 29 + 5 + 9 + 3 365 Nun betrachtet man die Zufallsgröß e X = Anzahl der Tage, an denen k Schüler gleichzeitig Geburtstag haben und setzt die Wahrscheinlichkeit p, dass jemand an einem bestimmten Tag Geburtstag hat gleich 1/365. Man erhält somit einen Erwartungswert (n = 878) von µ = E(X) 8 Eine ausführliche Beschreibung dieses Versuchs findet man unterer anderem in: Barth × Bergold × Haller, Stochastik 2, Ehrenwirth PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.5. Poisson-Verteilung = 878 35 /365 = 2,41. Damit lassen sich die einzelnen Wahrscheinlichkeiten exakt mit Hilfe der Binomialverteilung ausrechnen. Da diese Werte sehr schnell recht unhandlich werden, bietet sich die Poisson-Verteilung an. In der folgenden Tabelle sind die relativen Häufigkeiten der Tabellenauswertung, die Wahrscheinlichkeiten der Binomialverteilung und die Näherungswerte der Poisson-Näherung jeweils in Prozent wiedergegeben: k Binomial-V: Poisson-V: rel. Hä ufigkeit: 0 9,0 9,0 12,9 1 21,7 21,7 21,6 2 26,1 26,1 24,7 3 21,0 20,9 16,4 4 12,6 12,6 11,5 5 6,0 6,1 7,9 6 2,4 2,4 1,4 7 0,8 0,8 2,5 8 0,2 0,3 0,8 9 0,1 0,1 0,3 Man erkennt den erstaunlich guten Zusammenhang zwischen den theoretisch ermittelten und den empirisch gewonnenen Daten. Obwohl n (also die Anzahl der Schüler) nicht gerade extrem groß ist (zum Beispiel gemessen an der Anzahl von Atomen in einem Präparat), hat die Poisson-Verteilung in Fällen wie diesen durchaus ihre Berechtigung. Bei der Herleitung der Poisson-Verteilung wurde bereits die Beziehung µ = n×p angewandt. Deshalb ist es naheliegend, dass dieses µ in der Poisson-Verteilung auch ihren Erwartungswert darstellt. Dies lässt sich schnell mit Hilfe der allgemeinen Definition des Erwartungswerts nachrechnen: ¥ E(X ) = å k × k =0 ¥ ¥ ¥ mk -m m × m k -1 m k -1 mm ×e = åk × × e-m = m × å × e-m = m × å e-m = m m = k -1 k! k × (k - 1)! k =1 k =1 (k - 1)! m = 0 m! 1424 3 = Fm ( ¥ )=1 Die Varianz berechnet man am einfachsten über den bekannten Ansatz: V(X) = E(X²)– E(X)² Einfach ist E(X)² = µ²; Schwieriger ist E(X²) zu erhalten: Man ermittelt zuerst den Wert für E(X²) – E(X) = E(X² – X) = E(X×(X-1)): ¥ E(X × (X - 1)) = å k (k - 1) × k =0 ¥ ¥ mk m mk -2 mm -m × e = m2 × å × e-m = m 2 × å × e = m2 m=k -2 ( ) k! k 2 ! m ! k =2 m =0 14243 = Fm (¥ )=1 Es wurde also bis jetzt gezeigt: E(X²) – E(X) = µ²; Þ E(X²) = µ² + E(X) = µ² + µ Nun kann man schließ lich die Varianz ausrechnen: V(X) = E(X²) – E(X)² = µ² + µ - µ² = µ Erwartungswert und Varianz stimmen hier überein: E(X) = µ 9 V(X) = µ Die Zahlenwurden am 13. Januar 1998 aktualisiert. Eine differenziertere Tabelle findet man im Anhang. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.6. Normalverteilung 36 II. 6. Normalverteilung Betrachtet man die Graphen von (standardisierten) Binomialverteilungen für wachsendes n, so stellt man fest, dass sie (für beliebiges p) gegen eine gemeinsame Grenzfunktion zu streben scheinen. Diese Verteilung, an die sich die binomial verteilten Wahrscheinlichkeiten annähern, wurde von den französischen Mathematikern de Moivre10 und Laplace11 gefunden. Da die exakte Herleitung sehr umfangreich und kompliziert ist, soll hier nur auf den Beweis der Approximation in Kapitel III.4. hingewiesen werden. Das Ergebnis ist im sogenannten lokalen Grenzwertsatz von de Moivre – Laplace festgehalten: Für eine binomial verteilte Zufallsgröß e X gilt näherungsweise: 1 P(X = k) = B(n; p; k) » jms(k) = s × 2p mit k Î N0 und µ = n×p, s= ×e 2 1 k - çæ - m ö÷ 2è s ø n × p × (1 - p ) Für eine bereits standardisierte binomialverteilte Zufallsgröß e Z gilt einfacher: 1 P(Z = z) » - z2 1 ×e 2 2p Der Graph der Funktion hat auch den Namen Gaußsche Kurve, nach dem deutschen Mathematiker C.F. Gauß , der sie bei der Suche nach einem Verteilungsgesetz für zufällige Beobach-tungsfehler entdeckte. Aufgrund ihrer Form wird sie häufig auch Glockenkurve genannt. Bei ihr handelt es sich nicht mehr um eine diskrete Funktion. Nach der Definition stetiger Verteilungen legt man fest: Die kumulative Standardnormalverteilung lautet: F 0;1 (x ) = F (x ) = x ò j(t )dt = -¥ x 1 - t2 1 e 2 dt ò 2p - ¥ Daraus folgt der Integralgrenzwertsatz von de Moivre und Laplace: Für eine nach B(n; p) verteilte Zufallsgröß e X gilt: æ ö X - np Pç a < £ b ÷ » F(b ) - F (a ) = ç ÷ npq è ø b 1 - u2 1 × ò e 2 du 2p a 10 Abraham de Moivre, Frankreich 1667 – 1754; Er arbeitete im Bereich der Differentialrechnung und gilt als Mitbegründer der Trigonomie des Komplexen; der Begriff der erzeugenden Funktion und die analytischen Grundlagen der Wahrscheinlichkeitsrechnung gehen auf ihn zurück. 11 Pierre Simon Marquis de Laplace, französischer Mathematiker, Physiker und Astronom, 1749 – 1827; neben Beiträgen zu physikalischen und astronomischen Bereichen entwickelte er systematisch die Wahrscheinlichkeits rechnung. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com II.6. Normalverteilung 37 Hier sind nun die Graphen der Dichtefunktion der standardisierten Normalverteilung und der kumulativen Verteilungsfunktion (ebenfalls mit µ = 0 und s = 1) gezeichnet: Grundsätzlich gelten für die Gauß sche Funktion natürlich die Eigenschaften aller stetigen Verteilungen. Die Standardnormalverteilung erlaubt aber auch grundsätzliche Abschätzungen über Wahrscheinlichkeiten. Man berechnet die Wahrscheinlichkeit von Abweichungen vom Mittelwert um weniger als k×s und erhält zum Beispiel: P(m - 3s < X < m + 3s ) = æ m - 3s - m ö æ m + 3s - m ö = Fç ÷= ÷ - Fç s s è ø è ø = F (3) - F (- 3) = 2F (3) - 1 = 0,99730 Analog erhält man die eingezeichneten Werte für s und 2s: P(|X – µ| < s) = 0,68268 P(|X – µ| < 2s) = 0,95450 P(|X – µ| < 3s) = 0,99730 Daten der Dichtefunktion: Maximum: bei (0; 1 2p =0,399) Wendepunkte: (-s = -1; 1 (s = 1; 1 2pe = 0,242) 2pe = 0,242) Daten der Verteilungsfunktion: Wendepunkt bei (0; 0,5) Grenzwerte: lim F (x ) = 0; x ® -¥ PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com lim F (x ) = 1 x ® +¥ III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung 38 III. Zusammenhänge zwischen den Verteilungen (Grenzwertsätze) III. 1. Näherung der Binomialverteilung an die hypergeometrische Verteilung Obwohl die hypergeometrische Verteilung auf anderen Voraussetzungen beruht als die Binomialverteilung (die einzelnen Durchführungen sind nicht unabhängig!), scheinen die Experimente durchaus Ä hnlichkeiten aufzuweisen (es werden zum Beispiel nur zwei mögliche Ereignisse betrachtet). Es ist also gerechtfertigt, sich näher mit der Verwandtschaft dieser Verteilungen zu beschäftigen. Anhand eines Beispiels soll der Zusammenhang der Verteilungen in der praktischen Anwendung gezeigt werden: Zwei Glücksautomaten H und B (Hypergeometrisch und Binomial) enthalten jeweils N = 50 Kugeln. Davon sind K = 10 golden und damit N – K = 40 schwarz. Durch Einwurf eines Einsatzes bekommt man 10 Kugeln. Die Größ e des Gewinns richtet sich nach der Anzahl der gezogenen goldenen Kugeln. Bei dem Automaten H fallen die 10 Kugeln auf einmal heraus (= ohne Zurü cklegen). Bei B bekommt man erst eine Kugel. Die nächste Kugel erhält man erst, wenn man die gezogene Kugel wieder eingefüllt hat (= mit Zurü cklegen). Die Wahrscheinlichkeiten sind binomial bzw. hypergeometrisch verteilt: æKö æN - Kö çç ÷÷ × çç ÷ k ø è n - k ÷ø ænö è p H ( k ) = H ( N; K ; n ; k ) = und p B (k ) = B(n; p; k ) = çç ÷÷ × p k × (1 - p) n - k ; æ Nö èkø çç ÷÷ ènø 35% 0,35 30% 0,3 25% 0,25 Binomial (10,1/5,k) 20% 0,2 Hypergeometrisch (50,10,10,k) 15% 0,15 10% 0,1 5% 0,05 0% 0 0 1 2 3 4 5 6 7 8 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 9 10 III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung 39 Man erkennt, dass sich die beiden Verteilungen nicht sehr stark unterscheiden. Der Unterschied liegt ja lediglich darin, dass sich bei der hypergeometrischen Verteilung die Wahrscheinlichkeit nach jedem Zug ein wenig ändert. Sind jedoch sehr viele Kugeln vorhanden (d.h. ist N sehr groß) und man nimmt nur wenige heraus (d.h. ist n klein gegen N), so ändert sich die Wahrscheinlichkeit nach jedem Zug sehr wenig. Deshalb kann man die hypergeometrische Verteilung durch die Binomialverteilung ersetzen, wenn gilt, dass n gegenüber den Werten N, K und N – K klein ist: Erhöht man die Anzahl der vorhandenen Kugeln auf 100 beziehungsweise 500 (wobei immer noch 1/5 der Kugeln golden sind) so erhält man folgende Diagramme, bei denen man die Annäherung noch deutlicher erkennen kann: 35% 30% Binomial (10,1/5,k) 25% 0,35 35% 0,3 30% 0,35 0,3 Binomial (10,1/5,k) 0,25 25% 0,2 20% 15% 0,15 15% 0,15 10% 0,1 10% 0,1 5% 0,05 5% 0,05 0 0% Hypergeometrisch (100,20,10,k) 20% 0% 0 1 2 3 4 5 6 7 8 9 10 Hypergeometrisch (500,100,10,k) 0,25 0,2 0 0 1 2 3 4 5 6 7 8 9 10 Neben dieser eher anschaulichen Erklärung für die Näherung kann man die Ä hnlichkeit auch an den jeweiligen Momenten erkennen: Während der Erwartungswert sogar exakt ü bereinstimmt (E(X) = n×p), so unterscheidet sich die Varianz nur um den Faktor (N - n)/(N - 1). Aber dieser geht ja für N >> n gegen 1 und damit auch die Varianz der hypergeometrischen Verteilung gegen s²Binomial = n×p×q. Die Gü te der Approximation erkennt man an den folgenden zwei Beispielen: 1) Bei der üblichen Lottoziehung „ 6 aus 49“ (ohne Besonderheiten wie Zusatzzahl oder ähnlichem) handelt es sich natürlich um eine „ Ziehung ohne Zurücklegen“ , da man keine Zahl zweimal ankreuzen kann. Deshalb muss man, um ein exaktes Ergebnis zu erhalten, die Formel für Wahrscheinlichkeiten der hypergeometrischen Verteilung anwenden. Um die Wahrscheinlichkeit für genau drei Treffer zu erhalten, setzt man ein: PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung 40 N = 49 (Möglichkeiten insgesamt); M = 6 (mögliche Treffer); n = 6 (Anzahl der Ziehungen); æ 6ö æ 49 - 6ö k = 3 (erwünschte Trefferzahl): Þ PH(3) = ç ÷ × ç ÷ è 3ø è 6 - 3 ø æ 49ö ç ÷ = 1,765 %. è 6ø Würde man statt dessen die Binomialverteilung verwenden, so erhält man: n = 6 (Anzahl der Ziehungen); k = 3 (erwünschte Trefferzahl); p = 6/49 (Trefferwahrscheinlichkeit); 3 3 æ 6ö æ 6 ö æ 43 ö PB(3) = ç ÷ × ç ÷ × ç ÷ = 2,481 %. è 3ø è 49 ø è 49 ø Der relative Fehler beträgt hier (PB - PH) / PB × 100 = 28,9 %. Für diese Werte ist die Näherung also viel zu ungenau! 2) Nun seien in einer Produktion von Computer-Chips erfahrungsgemäß 600 aus 4900 Stück Ausschuss. Fragt man jetzt nach der Wahrscheinlichkeit, dass beim zufälligen Ziehen von 6 Chips genau 3 defekt sind, so erhält man exakt: æ 6ö æ 4300ö N = 4900; M = 600; n = 6; k = 3: P H(3) = ç ÷ × ç ÷ è 3ø è 3 ø æ 4900ö ç ÷ = 2,475 %. è 600 ø Ersetzt man nun diesen sehr schwierig zu berechnenden Term (z.B. ist 4900! = 145219913567678124901230665274740286270801563696509061919589621250835157326248929551758456289739675597150927914671187785338978892828258025080595191372162030698890183 959771055291517692380566311480545013740771078271299487448677401044274588485996414809721960064746 6477611681601023986647875570546798768659576537075746566987386475384323397620169256608196092575300620203634841272153071042273909791074610073106372773689853283858 65727680180645100675145200306449677857315719156566967402907810188830108682743521584466449543788923404 12992067621540637117651607197646124970711080198764416683796450910373561502456800913365975149895577017957078787767956567008465744067335243103272753843307517 7137697599455098847470948489589311404741247317506073196968126767696863348463134770728144889528383924336609 758202833601710783428486784482622706347579736842723651703251563377066763466917233194070067559256761689992533049592584434106886488831843371647426343397 287647897891652863531099608995154064304358229884640453847579304731375301698528471620672786819197938361275954290 8450473670146575094783081013987035387658807588753394439215970254143374188422477658152206467561500439303658197728436890742332213126028761938774240 49804186372215327734954424475428010106716500196202392185769690729429067897584162177613188980206289085817948479717621 47688648809267300725873554161095240651072774054026382171628347063846976912665876309123577357618442800755806789181566995164243580547546753142 8586203646183118139792641312963610991814664011375761380896261969288310277633311228421136762062800808001575908767390076853 731052609579473431255351777368383008422390618806249934394610675714125615658287653425738179475150234998176394045005093741762973498010556 525902957066378003192492244941142335443531280335845712691900381535431885335782793808352187101678459806147007500019270923262964 9030328201371635191258517287029896517013266859732076731172974937656525953926654090159343543982151877578514493015017455086829940565 63305248704647262506076462754350926819812120415418695239838234302836885749142677152147058173389417571617128622731154479517906052451 98431508660427779562471877278282611633560843001052122824005646539236684802597478152168885815997086858228567471648225759377317 8831918520530997485115711698934999621202213868974457627877977263558559099883380770224318747439206551968271636387448950648490528590260783 448399523959256071503393367318378719024557570388788287744413262466778340064219332931162226447986494625739400656899647351 728226759407796411998578177472304355813756899486268667553250307040053566266297444961407700450780702883984509138145606503032507576636357213530 6797537956310801205278889778269944364415512083850765332292994752276400522087551738974520492983227005169239304096582 77357158970784393534583837834254708526101123856113926066751025660969869094126300592121659692164479952273385778090257479609465214116548783077718694 03587647239114199397169621172052197198915822392720339479183655460077468324355422713900810484246535136358989317 2069614512736430197777565735926257312721599545558787622315583870486652511071138550066624834313099731062729285154677789374483351102398882664811764483238 636403930136248117480739668490844611787070785821764812053867724182486362205136887511726247471380741500662 113875184972214917359595651229744677313345305121897608914666481316875064738995880924578252958823796757193253060001972220545746274647939691948648353708418259 5003185244141354065891262955180364604975477015026878158554056110043696749563991449899791459037055847 53980139236833784374941583084337156071452464537440384708638382396259664793347478873288554009451773835417241623091702733414675388024349438750845035728338418209894 35718691462799598708394979411863784283339117429015814376898930201727860320009641653109718446352 3429576773827060778029804777785320829264818413374707571852706226961889819551751126239121028463243008520188525721723022139196441618196081574611488043942781075120304832 775086226684998948911221182200462730992856396101601442133310457764910025454508138581737001 445494274066370354108126382851103829495762441878860640627352860106397956670762074260510383651508262127705223686839791071965735571935124694849418727389134622085325645031897 3372885301691513217381535644413850391260173253996964053371699575459873244911839023469 42744753600478490392313074537063507275415873924773030042641734039993682720381598974387332878289052445927566099655592293464511882224984138092457524600621405914569608767453985740 89773857137939675065400494112887569837152156907835748179339156074166954351190378 4122211110951842131603055243698121593911446006058330021272819814526419529288954009902361598783702963458082545002974774099382542449675738552319760402615793620295875279176334560866203 045532247016548859669474076937525067492725709154198109049317655125334947989 653026309576826089482869298883649956310640816494358197089608451125915647666572682532998554475853062438709099512790063204384749066614498010579418138415687463351606746435182904345761229410 9869882719429648587935481904236717481505373349513517255788082181160516 97102817796073973025994073105709909833295427882671980604505841382769559632780431851480119475023225725816047678332204788106470664013743666363043176319254148056168089008961958387183680918909130 89846790557959408548613572235783938918737677631910439323377635566 3511983392496017042730851562022155551683805735573081743783826517257274431038857793027241272969874605985970563437591707432012673240456035492216573156962828218242654197238285996245714695432890247474 752220341753939883065824034826915007048021812166149263364447 920743675004673193598280110247862032590893748743261745645910124900140611634497523153530235295436497234544006820331036043662953111484563602819594635644890270434381334352573248139479155282260339149090439 2974854893407316258687320038509752868048844299002931538 27356881629949462935001003774462446663653692329656189693530400743185653354481751718031176918251036320601843985291466694518043001480378039532370186676529688600898050347775352135597800265457708735671827789192 82199698810527502923090129636406821351895195423992 0168638572218061381417499046058158710520341840904656900939330063534465238862181416936776554633650945775037742548009104492547889612750108626218182994471173899037457073116238062285226797447424916073386841864151644 317312844503351916993539837401793432330022896 304192305295282092507346469612322704061001185449702911151458694081715483059956478048891363148081209598663369021270406534689937054930931736799470432322470119495301439588576395602059105493576140774939341373486787517031 4256366030527951574884728822126754534837 63185394221169028486874240633367952745568179532267017349193321082514748022255340484170120411615408187340060059390290430508653300747772648354318040720745787028617552441808925257011317774983894289412859350963440819501107178 34652222614064196332129581427087674 5221949620276974371355928750962296922317848566266668518722992034951187188144869285142755559332324507667438571269622024417383774923412091719622171220360027177157058709025784522362849287544367299423131188058950393303254775627242 729649789641903715722916142090 553268561072655833812613622625228602722863816248981406128988664600648891363305376921290380754057420666779819508202241005174113200649343471552383888950506393108685523199916740424024720861591861998802397439108637998235853235556969211 5701186284173925475744272 24805211671899226195152695345374908946217821629957487939987071072398070841140247720118683105547393777279430882479196044396904535298128030753114731477003617370309817093664991581889130049971405593246689708222117411989863287003603475978769 30212358025733965653 6523997942322316650182726094599125726069200248185271899528572534383181319821969854924231983116006334602978471378514012226790052791770016488694904082906283164547674531913231799272339821146491254387327565386042643600372944594564680175959599180 572656777007302119511578542804130159971407458540437740775231791718596299825302265245433579435878841841066761260385469785407547530900496666655963403664983428259521201789072616487804371574613907907123828918585515554082406497871148495002315206039741814453107975926 6898059529 40348015491133502113712511750731393305666073339365267747142002012913264239839455238487658160577825174203097811837142805698021129430596072256770681554972755933712302203501869828254299216153610897395022586905545573059771810419513325963874044668149581803 95813941583656627491310480888477433726548004936645995602681823196682812205490296371186859045524090885905576148890800140696841172859639771098016448481120700917285417440805437209351114602528712726402643489864738926374076240356898218134106535430332495548407304372 798007055415911549192666883367120931324876422786789379991050527540638379659442903341169095112500344387571319293830547740474794320316925381077367902141089934394587711359975098685686573768090182172165953647235138318673469258762813947612284441169497465700319 05670 78868085113782021307334178282517739367896187852869443684490423058782925034631507268117166946768016631940345297274257723641913833996574775453175562375220079988561713046861966142348548360683968514884380790581445222934578976719088170819429785378123008946 5738995554 917013114376062270580817206447969528967281157588222659066099269172477131998658833187764611073409214366826370620216154922993778533383227978285446927132114658826353369523724560212201343044606902900254887418945816950404479139290535621171923486668281 908817630826635 7184529111093651741356937909240903083415537701857591937333936327684718856915057634788183028259310606661516350080600610317275200137227542123021596880203658510101410854194295451235032168474650316305262789619132271570668122413391582221435423072 67251178905563856226 22582648776005636706895258727970536846566805947271839720814400709734026795903260610026855915380596011149134653503316117654930582192495850498974373896808835657797108315061051396351885103527078890323439820165842778655717749115573536765185 2518515593726238193039399 710043949828506195332507432147438944364473348411261966972341420303439831552254320584012254764805955402285934849979424510758840575960805744433090882760690601183146142517599895892018921016613791694396207450743844302389720046638016105 426300178424159357560855410636 9489399196395552377293468336720393485349533443282762838594897716804397864240109502234102337033302787207928306563573414463281626998409408220089401249207701800877838183105444632718795558004159823080054546924959710005776053499058 69928145106059887322465942083248212 54235063914421227809923614745731390988343586552929828324482146833385254676255220515933549608061035882352847379955348431239195966877192400534164213290814184279579149466803370344883700299079775811471380984982210918455356369 5217492089781887791513555162372550755727 724797096902572614808932299238534585055070694498746646786166972526648010193897281299753342636696723750268255711883354344697596590877613315859596791865737666934186987295684163590921622167228992406522994539870540718207 215273128362804447863174636038763812674765354 2147579449616083053840064704403683394422157875229411732768197481823507357547653847269458245185731230358584214711534603721505961994807389489186935043250350865823572865163534519854392206494742057434297684822447288 60397684990801231651374682914686789846098277383949 65098361326737625650288453516503004551988326804614487512661448106128440239659873634561609917557657556439387986754724552815842174115580058002134843384795124826876493460154428629092412593748706168698118212667 1961847549121187982759247729018796069264635431806550483 475446120518631840703282221588575449920694776861991986514361765758286200853863039414277486145329507856009976510285109270307475416499427839325885166188937489493788708515679645547751453044883693151728326 054392498167663999466777436785408646355297129140396827908992 4068173569479879542082345212112183177596168791221746720217375394947323976833537236708924942452681864149418570330655764839827001531677818489521048574531320875192164805699220288186741288904864198281 34270244003657789387448141190224819666116175530534666265862097920 97639110430946431326750301233636514544503856169917031505235469540871897002344746735183966145583972578464705043208460384417771570947634692651021937241855139337536126623932644440436195710404438 3845693972861703841261371161517418150450858864119657688392359167348640 175183881659376142857161571540699345333850696663964442823824910906829394300206207087556867459118259479593092786113093199106507835421982330361277267333494860527096729701474604062957693455 473670590386874271506125777360537880131798854330573534737882084535518514575 0806169259197903889711731075353630144982775834092904173406248471767824752639087311222096857096763934217731841327415368473358127003786823809716449757780725552651276184481469640076324 19411605541777574676924796649685686679788179542641227495586207219695928548710333 82274922161884332075631819251711298340430236287076143234134577393840590376712308996718217284851858939255248608224546896650383184712895080235561888299352434833943788636147781743 0699511587583600617853983708216476965354997456961878093750787831964154678610718100008 147153588292293060667914894472933055161078913622513432489555479374868902156502537932488564780115325223732078155826095954485764208640176667150789490561768644186738404513801 150962942516565548730040568670895415221057339423702595910348388373111281104484524568451856 4562469128230677621015811751468157984505926899125372939250367501166594023094281496418311651888745719924488484479894910569909685997615820706358700016026333085532421180 31487061345933577889503237797907764083721390850321189700710139039685084730693735893932168763532 71751410455181957877265421956984261113840083716561190321577101452174382957063434695478586232839672005234293930234849987485244346196468841971530243275762853804979 9488795428926262598610992433775534136101551957194762072810911991767493483825920646105416300367599869 715291158948125893365692643989895974847880780683992062799861383108717905862444265841064559243831046258667855013260955321742760389578801217004028487324123308 369489878018054390069011066289974989513858770664539436693123594705624450572126563247769148307496346123366 2428587027748044340585264417554262270134517894117826615172350509562569261048450049177469085248667105752705607494831571709638603175073301522941111848683 62977504172818952400963552981127333833068883542315408395665826408881207359520164533893190805936846802475881723 16872426199591203583983384061715452272267677993295148205544505131740444206046263632157323863112350285157056235201075586635292022698287629705456517 2978577454975053590750809081273124520415271244838969769401978487242940697586358097205320792279291657523672382507552 806799440641664298700608023534597911365940143620471049506153908357096093010509165296713960812159804224431602627143270400000000000000000000000 000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 0000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 0000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 0000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 00000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000000 000000000000000000000000000000000000 das ist eine Zahl mit 15957 Stellen) durch den der Binomialverteilung, so ergibt sich derselbe Wert wie im ersten Beispiel, da p = 600/4900 = 6/49, also der Anteil der Merkmalsträger in der Menge, gleichgeblieben ist: PB(3) = 2,481 %. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung 41 Da der relative Fehler nur noch 0,26 % beträgt, erweist sich die Ersetzung von H(N; K; n) durch B(n; K/N) als durchaus brauchbar. Þ Man erkennt, dass sich Binomial- und hypergeometrische Verteilung um so ähnlicher werden, je größ er N (also die Gesamtmenge) ist und die Anzahl der Ziehungen n relativ dazu klein ist! Als Faustregel für eine im Allgemeinen ausreichend gute Annäherung gilt: N ³ 2000 und n/N £ 0,1 (bzw. n £ 200); auß erdem sollte p = K/N in der Nähe von 0,5 liegen und k << n sein; Man kann den Grenzübergang von der hypergeometrischen zur Binomialverteilung auch allgemein zeigen: K ö æKö æN - Kö æ ÷ Hç N;n; ÷ = çç ÷÷ × çç N ø è k ø è n - k ÷ø è æ Nö K! ( N - K )! n!×( N - n )! çç ÷÷ = ; × × N! è n ø k!×(K - k )! (n - k )!×( N - K - n + k )! n!, k! und (n-k)! zieht man vor, schreibt die Fakultäten ausführlich und kürzt. So wird zum Beispiel aus K! K × (K - 1) × (K - 2) ×...× (K - k + 1) × (K - k ) × (K - k - 1) ×...× 3 × 2 × 1 = = (K - k )! (K - k ) × (K - k - 1) ×...× 3 × 2 × 1 = K × (K - 1) × (K - 2) ×...× (K - k + 1) Kö æ Somit erhält man: Hç N; n; ÷ = Nø è = n! K × (K - 1) ×...(K - k + 1)×( N - K ) × ( N - K - 1) ×...× ( N - K - n + k + 1) × = k!×(n - k )! N × ( N - 1) ×...× ( N - n + 1) Nach Teilung von Zähler und Nenner durch N gehen alle neuen Brüche der Form 1/N, 2/N, (n-k-1) /N usw. für N ® ¥ gegen 0 und können vernachlässigt werden: PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.1. Näherung der Binomialverteilung an die hypergeometrische Verteilung 42 K æ K 1 ö æ K k -1ö æ K ö æ K 1 ö æ K n - k -1ö × ç - ÷ ×...× ç ÷ ÷×ç1 - ÷ × ç1 - - ÷ ×...× ç1 - ænö N è N N ø è N N øè Nø è N Nø è N N ø = = çç ÷÷ × 1 ö æ n -1ö æ èkø 1 × ç1 - ÷ ×...× ç1 ÷ N ø è Nø è Schreibt man nun noch p = K/N so ergibt sich: kFaktoren n - kFaktoren 6 4 74 8 6444 474444 8 æ n ö p × p ×...× p×(1 - p ) × (1 - p ) ×...× (1 - p ) æ n ö k æ Kö n -k = çç ÷÷ × = çç ÷÷ × p × (1 - p ) = B(n;p) = Bç n; ÷ . 1 × 1 ×...× 1 è Nø èkø èkø Streng genommen wurde hier nur gezeigt, dass sich die Wahrscheinlichkeitsfunktionen der beiden Verteilungen aneinander nähern, aber es gilt ebenfalls, dass man die zugehörigen Verteilungsfunktionen für große N und kleine n untereinander annähernd ersetzen kann. Es gilt also für eine hypergeometrisch verteilte Zufallsgröß e X näherungsweise: ænö æ K ö K P(X = k) » B(n; n × ; k) = çç i ÷÷ × çè N ÷ø è ø N ænö P(X £ k) » F K (k ) = å çç ÷÷ × pi × q n - i = n; n× i =0 è i ø N k i × æç1 - K ö÷ è Nø æç n ö÷ æ K ö å ç ÷×ç ÷ i=0 è i ø è N ø k i n -i K × æç1 - ö÷ è Nø n -i Allgemeine Fehlerabschätzungen sind schwierig, aber es lässt sich allgemein sagen, dass die n Näherung meistens dann gut anwendbar ist, wenn N ³ 2000 und £ 0,1 gilt. N Auß erdem sollte die Trefferwahrscheinlichkeit p in der Nähe von 0,5 liegen. Da sich die Erfolgswahrscheinlichkeit kaum ändert, wenn nur wenig Kugeln gezogen werden sollen, trägt ein kleines k (gegenüber n) zu einer guten Approximation bei. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.2. Näherung der Poisson-Verteilung an die Binomialverteilung 43 III. 2. Näherung der Poisson-Verteilung an die Binomialverteilung In Kapitel II.5. wurde die Poisson-Verteilung bereits als Näherung für die oftmals sehr aufwendig zu berechnende Binomialverteilung eingeführt. Um ein Kriterium aufstellen zu können, wann der Approximationsfehler ausreichend klein ist, werden die jeweiligen Verteilungen auf die folgenden Beispiele angewendet. 1) Ein typisches Experiment, auf das die Binomialverteilung zutrifft, ist der mehrfache Wurf einer L-Münze. Geht man vom Idealfall aus, so ist die Wahrscheinlichkeit für eine der beiden Seiten gleich 0,5. Ist nun die Wahrscheinlichkeit zu errechnen, mit der bei zehn Würfen genau k-mal ‘Kopf’ auftritt, so gilt exakt nach der Binomialverteilung für k = 2 und k = 5: 2 æ10 ö æ 1 ö æ PB (2) = çç ÷÷ × ç ÷ × ç1 è 2 ø è2ø è 10 - 2 1ö ÷ 2ø 10 æ10 ö æ 1 ö = çç ÷÷ × ç ÷ = 4,39 %; è 2 ø è 2ø 10 æ10ö æ 1 ö PB (5) = çç ÷÷ × ç ÷ = 24,6 % è 5 ø è 2ø Die Poisson-Näherung ergibt (wobei µ = n×p = 10×½ = 5 ist): PP (2 ) = e -5 × 52 = 8,42 %; 2! PP (5) = e - 5 × 55 = 17,6 % 5! Daraus ergibt sich ein relativer Fehler von 48 % (k = 2) beziehungsweise 29 % (k = 5). Þ Unter diesen Bedingungen stellt die Poisson-Verteilung also eine zu grobe Näherung dar. Da auß erdem die kleinen Werte selbst ohne Taschenrechner keine Probleme bereiten, wird man die Poisson-Wahrscheinlichkeiten hier nicht anwenden. 2) Anders stellt sich das Problem im zweiten Beispiel dar: Ein europäischer Roulette-Tisch hat in der Regel 37 verschiedene Zahlen (0-36), auf die gesetzt werden kann. Die Wahrscheinlichkeit, dass eine bestimmte Nummer fällt, ist also 1/37 » 2,70 %. Lässt man die Kugel 111-mal rollen, so erwartet man E(X) = n×p = 111 /37 = 3 -mal im Durchschnitt jede Zahl. Wie hoch ist nun die Wahrscheinlichkeit, dass jeweils genau k-mal eine bestimmte Zahl fällt? PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.2. Näherung der Poisson-Verteilung an die Binomialverteilung 44 Berechnet wird jeweils der exakte Wert der Binomialverteilung und die Werte der PoissonNäherung: k PB(k;111;1/37): PP(k;3): Fehler: 0 1 2 3 4 5 4,78 14,73 22,50 22,71 17,03 10,13 4,98 14,94 22,40 22,40 16,80 10,08 4,04 1,38 0,45 1,36 1,36 0,44 6 <7 20 4,97 96,85 1,9E-09 5,04 96,65 7,1E-09 1,42 0,21 73,16 Der relative Fehler für sinnvolle Werte von k liegt also fast immer unter 2 %. Hier ist die Poisson-Approximation sinnvoll. Besonders geeignet für die Anwendung der Poisson-Verteilung sind Vorgänge bei denen Atome im Spiel sind, da ihre Anzahl extrem groß ist. Ein gutes Beispiel wären die bereits bei der Herleitung der Poisson-Verteilung (Punkt II.5.) erwähnten Experimente von Geiger und Rutherford, da die Anzahl n bei Betrachtungen mit Atomen meist sehr groß ist und bestimmte Ereignisse nur selten eintreten. Aus Platzgründen muss aber auch hier auf Sekundärliteratur verwiesen werden (siehe Fuß note 8 auf Seite 34). Dem erwähnten Zerfallsexperiment und den beiden Beispielen könnte man nun entnehmen, dass die Poisson-Approximation für größere n und kleinere p besser wird. Auß erdem sollte sich k nicht zu weit vom Erwartungswert entfernen. Diese Vermutungen sollen jetzt durch eine allgemeine Berechnung des Fehlers, den man bei Anwendung der Poisson-Verteilung macht, bestätigt werden: PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.2. Näherung der Poisson-Verteilung an die Binomialverteilung 45 Es zeigt sich, dass es für die Vereinfachung des Terms günstig ist, nicht die Differenz, sondern den Quotienten von B(k; n; p) und P(k; µ) zu bilden und ihn zu logarithmieren. Für die Erfolgswahrscheinlichkeit kann man p = µ /n schreiben, so dass der Fehler d nur noch von n und k abhängt: [Die Berechnung ist auf der linken Seite durchgeführt, rechts befinden sich die zu jedem Schritt nötigen Erläuterungen.] n! = n (n - 1) ×...× (n - k + 1) (n - k )! n -k k n! æmö æ mö m ç ÷ ç1 - ÷ B(k; n; ) k!(n - k )! è n ø è n ø n = d = ln = ln k P ( k; m) -m m e k! é n (n - 1) ×...× (n - k + 1) m k æ m ö n - k m k! ù = ln ê × k × ç1 - ÷ × e × k ú = m ûú k! n è nø ëê é n æ n -1ö æ n - k + 1ö æ m ö = ln ê ç ÷ ×...× ç ÷ × ç1 - ÷ n ø è nø ëê n è n ø è n -k k k! mk 1 æmö = em k ç ÷ = k; k m n m ènø e-m k! k!, µ k gekürzt; n(n-1)×...×(n-k+1) sind genau k Faktoren, jeder wird durch n geteilt Þ nk fällt weg; ù × em ú = ûú ln(a×b) = ln(a)+ln(b); ln(eµ )=µ; éæ 1 öæ 2 ö æ k - 1 öù æ mö = ln êç1 - ÷ç1 - ÷ ×...× ç1 ÷ú + (n - k ) × lnç1 - ÷ + m n -k n øè n ø è n øû 14424 è 4n3ø {3 è 44 1ë4 44 42444444 3 æ mö æ mö lnç1 - ÷ = (n - k) × lnç1 - ÷ 2 1 è nø è nø Der Ü bersicht halber werden diese drei Summanden nun kurzfristig einzeln behandelt: jö æ 1ö æ 2ö æ k - 1 ö k -1 æ (1) = lnç1 - ÷ + lnç1 - ÷ +...+ lnç1 ÷ = å lnç1 - ÷ . Für die weitere Vereinfachung n ø j=1 è n ø è nø è nø è bietet sich eine Reihenentwicklung des Logarithmus an (Formelsammlung Seite 52): ln(1 + y) = y - 12 y 2 + 13 y 3 ± ... für x £ 1 . Für das vorliegende Problem setzt man y = -x: ( ) ln(1 - x ) = - x - 12 x 2 - 13 x 3 ± ... = - x 1 + 12 x + 13 x 2 + ... . Eine für diese Fehlerabschätzung ausreichend gute Näherung erhält man, wenn man die Reihe nach dem dritten Glied abbricht. Zur Berechnung der obigen Summe nimmt man x = j/n und erhält so: 2 2 k -1 ì é j ö k -1 ìï j é 1 j 1 æ j ö ù üï 1 j 1 æ j ö ù üï ïj æ ln 1 = 1 + + 1 = + + ç ÷ ç ÷ ç ÷ ê ú ê úý ý í å åí å 2 n 3 n è n ø j=1 ïî n êë 2 n 3 è n ø úû ïþ è ø j =1 j =1 ï n ê úû ïþ î ë k -1 (1) = 2 m é 1 m 1æmö ù æ mö + ç ÷ ú erhält man analog. (2) = (n - k ) × lnç1 - ÷ = -(n - k ) ê1 + n ëê 2 n 3 è n ø ûú è nø PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.2. Näherung der Poisson-Verteilung an die Binomialverteilung 46 Der Ausdruck für den Fehler lautet mittlerweile also: 2 2 k -1 ì é m é 1 m 1æmö ù 1 j 1 æ j ö ù üï ïj + ç ÷ ú +m. d = -å í ê1 + + ç ÷ ú ý - (n - k ) ê1 + n ëê 2 n 3 è n ø ûú j =1 ï n ë î ê 2 n 3 è n ø ûú ïþ Definitionsgemäß ( P(k;m) = lim B(k;p;n ) ) kann man n als groß voraussetzen, wenn die n ®¥ Näherung überhaupt einen Sinn machen soll. Deshalb kann man die Terme mit n² und n³ im Nenner vernachlässigen. So erhält man immer noch eine ziemlich gute Näherung für d: Zieht man in der ersten Summe j/n in die Klammer und sortiert die Terme, so ergibt sich: æ ö æ ö j 1 k -1 j2 1 k -1 j3 m ç 1 m 1 m2 ÷ m ç 1 m 1 m2 ÷ ÷ + k ç1 + ÷+m = d = - å - å 2 - å 3 - n ç1 + + + 2 j=1 n 3 j=1 n n ç 2 n 12 3 n32 ÷ n ç 2 n 12 3 n32 ÷ j =1 n ç ÷ ç ÷ 14442444 3 fällt weg ø fällt weg ø è è fällt weg k -1 k -1 j = s n = n2 (a1 + a n ); j =1 n arithmetische Re ihe :å j m æ 1 mö = -å - mç1 + ÷+k +m = n è 2 nø j=1 n k -1 wobei n = k - 1; a1 = 1 n und a n = (k - 1) n ; k - 1 æ 1 k - 1 ö k - 1 k k (k - 1) k (k - 1) m2 m Þ sn = × = . -m+k +m = ç + ÷= 2 èn n ø 2 n 2n 2n 2n n 1 1 1 ( = - k (k - 1) - m 2 + 2km = - k 2 + k - m 2 + 2 km ) = - (k 2 - 2km + m 2 ) + k = 2n 2n 2n 1 ( k - ( k - m) 2 ) = 2n =- [ ] [ ] Es lässt sich nun zeigen (auf diese Ausführungen wurde hier aber verzichtet), dass der errechnete Fehler d = Ln[B(k; p; n) / P(k; µ)] bei kleinen Abweichungen sehr gut dem relativen Fehler der beiden Werte entspricht. Wie an der folgenden Tabelle zu erkennen ist (es wurden die Werte des zweiten Beispiels (Roulette) übernommen), ist diese Fehlerabschätzung nur für kleine Abweichungen als Korrekturfaktor brauchbar. Sie genügt aber, um zum Beispiel schon im Voraus bestimmen zu können, ob im konkreten Fall die Poisson-Verteilung eine geeignete Approximation an die Binomialverteilung darstellt: k 0 1 2 3 4 5 6 <7 Fehler: 4,04 1,38 0,45 1,36 1,36 0,44 1,42 0,21 Ln(P/B): 4,13 1,39 0,45 1,37 1,37 0,44 1,43 0,21 131,51 (k-(k-µ )²)/2n: 4,05 1,35 0,45 1,35 1,35 0,45 1,35 121,17 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 20 73,16 III.2. Näherung der Poisson-Verteilung an die Binomialverteilung 47 Aus der erhaltenen Formel lässt sich bereits folgern, dass der Fehler in der Tat um so geringer wird, je kleiner n im Nenner wird. Da aber p = µ /n ist, so erkennt man sofort, dass die Poisson-Näherung gut anwendbar ist, wenn p klein ist (Verteilung der seltenen Ereignisse!). Setzt man d = 0, so erhält man nach kurzer Rechnung: k1 / 2 = (m + 1 2 ) ± m + 1 4 . Dies bedeutet, dass der Fehler dann besonders gering ist, wenn k in der Nähe von (nicht unbedingt genau auf) dem Erwartungswert liegt. Dies zeigt auch die folgende Grafik: Sie stellt den exakten relativen (in Prozent) 2 0 (ausgerechnet durch -2 0 100 × B(k; p; n) / P(k; µ) ) 1 2 3 4 5 6 7 8 -4 und den durch die Formel angenäherten -6 Berechneter Fehler -8 Exakter Fehler -10 Fehler dar (µ = 3): [Das Maximum dieser Funktion liegt bei 1 æ 1ö ç m + ÷ . Berechnet man nun die Werte von k, 2n è 4ø für die der Betrag des relativen Fehlers unter diesem Wert liegt, so erhält man als Lösungen: k1 / 2 = (m + 1 2 ) ± 2m + 1 . Das bedeutet, dass der relative Fehler kleiner als wenn k von µ+½ um weniger als 1 2n (m + 1 4 ) ist, 2m + 1 abweicht.] Zusammenfassend lässt sich daher schreiben: Für eine binomial verteilte Zufallsgröß e X gilt, da µ = n×p ist: - np (np) æ m ö P(X = k) = Bç n; ; k ÷ » Pm (k ) = e × k! è n ø k e - np × (np) bzw. P(X £ k) » Fµ (k) = å i! i=0 k i Aus den hier dargestellten Ü berlegungen lässt sich nun folgern: Die Approximation ist um so besser, je größ er n in Relation zu µ und |k - µ| ist. Dies impliziert ein kleines p = µ /n und ein k, dass möglichst in der Nähe des Erwartungswerts sein soll. Für eine angemessene Näherung sollte mindestens gelten: p £ 0,1 und n ³ 30. Für p £ 0,01 und n ³ 100 zeigen Tabellen, dass der maximale Fehler unter 2 ‰ liegt. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.3. Näherung der Poisson-Verteilung an die hypergeometrische Verteilung 48 III. 3. Näherung der Poisson-Verteilung an die hypergeometrische Verteilung Dass die Poisson-Approximation als Näherung der hypergeometrischen Verteilung verwendet werden kann, kann man bereits aus der Tatsache schließ en, dass sich die hypergeometrische an die Binomialverteilung und sich diese wiederum an die Poisson-Verteilung annähert. Deshalb wird hier der Zusammenhang hauptsächlich auf die Brauchbarkeit der Ersetzung hin untersucht. Da sich die Wahrscheinlichkeiten von hypergeometrisch beziehungsweise binomial verteilten Zufallsgröß en für groß e N nicht mehr wesentlich unterscheiden (siehe III.1.) wird man bei der Poisson-Näherung von vornherein nur dann gute Ergebnisse erwarten, wenn N großund die Trefferwahrscheinlichkeit p klein ist. Zur Ü berprüfung dieser Vermutung betrachten wir folgende Beispiele: 1) Verwendet man das Experiment des Glücksautomaten aus Kapitel III.1 (10 goldene Kugeln und 40 weitere; 10 werden gleichzeitig (d.h. nacheinander ohne Zurücklegen) gezogen), so erhält man folgende hypergeometrische verteilten Wahrscheinlichkeiten (die jeweiligen Poisson-Näherungen mit µ = n×M/N = 2 sind bereits mit angegeben): 0 k Hypergeometr. V: 8,25 Poisson-V: 13,5 Rel. Fehler: 39,0 1 26,6 27,1 1,65 2 33,7 27,1 19,7 3 21,8 18,0 17,1 4 7,85 9,02 13,0 5 1,61 3,61 55,3 6 0,19 1,20 84,5 7 0,01 0,34 96,6 8 9 10 0,00 0,00 0,00 0,09 0,02 0,00 99,6 100,0 100,0 Es scheint hier die Anzahl der Kugeln zu gering zu sein, so dass die Näherung viel zu ungenau ist, um sie hier anwenden zu dürfen. 2) Bei einer Produktion von Bauteilen sind, aus technischen Gründen, erfahrungsgemäß im Mittel 1 % fehlerhaft. Eine Firma kauft nun 1000 Stück aus dieser Produktion und möchte die Angaben des Verkäufers prüfen. Da die Ü berprüfung der Bauteile kostenaufwendig ist, entnimmt der Kontrolleur der Lieferung zufällig 100 Stück (d.h. „ Ziehen ohne Zurücklegen“ ) und will den Posten ablehnen, wenn mehr als die angegebenen 1%, also mehr als ein Stück nicht funktioniert. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.3. Näherung der Poisson-Verteilung an die hypergeometrische Verteilung 49 Wie hoch ist die Wahrscheinlichkeit, dass er die Bauteile zurückschickt, obwohl der vom Hersteller angegebene Prozentsatz stimmt? Exakt ist die Anzahl der defekten Stücke hypergeometrisch verteilt: P(„ mehr als 1 defekt“ ) = 1 – P(„ keines defekt“ ) – P(„ genau 1 defekt“ ) = = 1 – H(0; 100; 10; 1000) – H(1; 100; 10; 1000) = æ 10ö æ 990ö = 1- ç ÷ ×ç ÷ è 0 ø è 100ø æ 1000ö æ 10ö æ 990ö ç ÷ - ç ÷ ×ç ÷ è 100 ø è 1 ø è 99 ø æ 1000ö ç ÷ = 1 – 0,347 – 0,390 = 26,37 % è 100 ø Der Händler wird also im Schnitt in 26,4 % aller Fälle die Lieferungen zurücksenden, obwohl sie eigentlich noch den Bedingungen entsprechen. Da der Rechenaufwand hier sehr hoch ist, ist es zweckmäß ig, eine einfacher zu berechnende Näherung wie die Poisson-Verteilung heranzuziehen: Der Parameter µ der Verteilung ist ja der Erwartungswert. Er lässt sich leicht berechnen, da gilt: µ = n × p = 100 × 0,01 = 1. Man erwartet also durchschnittlich ein defektes Teil in der Auswahl. Nun wird analog zu oben die Wahrscheinlichkeit P(„ mehr als 1 Teil ist defekt“ ) berechnet: P(„ 2 oder mehr Teile sind defekt“ ) = 1 – P(„ keines defekt“ ) – P(„ genau eines defekt) = = 1 - e -1 × 10 11 1 1 2 - e -1 × = 1 - - = 1 - = 26,42 %. 0! 1! e e e Nach dieser wesentlich einfacheren Rechnung wird er ebenfalls etwa 26,4 % der korrekten Lieferungen fälschlich abweisen. Der relative Fehler beträgt lediglich 2,0 ‰ . Bei dieser Parameterkonstellation (groß es N, kleines p = K/N) stellt die Poisson-Verteilung also eine gute Näherung der hypergeometrischen Verteilung dar. Für eine allgemeine Abschätzung des relativen Fehlers ist natürlich die Formel, die bei der Approximation Poisson- ® Binomialverteilung hergeleitet wurde, verwendbar. PB und PH kommen ja einander für größ ere Werte von N beliebig nahe. 1 2 Der Wert des relativen Fehlers liegt also ungefähr bei 2n k - (k - m) ( ) PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.3. Näherung der Poisson-Verteilung an die hypergeometrische Verteilung 50 Es lässt sich somit für groß e N und kleine p nähern: Für eine hypergeometrisch verteilte Zufallsgrösse X gilt näherungsweise , da m = n × K (k ) = n× P(X = k) » Pµ (k) = P e -n× K N -n× K N N n×K × ( N) k! k n× K × ( N) i! i K ist: N beziehungsweise k e M (k ) = å i=0 n× P(X £ k) » Fµ (k) = F N Die Poisson-Verteilung ist ursprünglich als Näherung der Binomialverteilung für groß e n eingeführt worden. Daraus lässt sich folgern, dass eine gute Approximation grundsätzlich erst für höhere Werte von n zu erwarten ist. Die beiden Verteilungen sind sich aber auch erst dann besonders ähnlich, wenn die Trefferwahrscheinlichkeit p relativ klein ist (die Poisson-Näherung ist ja die Verteilung der seltenen Ereignisse). Deshalb sollte auch der Wert von k in einem Bereich liegen, der wesentlich kleiner als n ist. Da n groß und p klein sein muss, sollte man einen mittelgroßen Erwartungswert voraussetzen, will man eine brauchbare Näherung erhalten. Die Tatsache, dass sich die hypergeometrische Verteilung und die Binomialverteilung erst für groß e N nicht mehr wesentlich unterscheiden, legt nahe, dass dieses N eine große Zahl sein sollte. Auß erdem darf man nicht zu viele Versuche durchführen, da sich sonst die Trefferwahrscheinlichkeit zu stark ändert. Das bedeutet, dass n wesentlich kleiner als N sein muss. Die hypergeometrische Verteilung lässt sich im Allgemeinen genau genug von der PoissonVerteilung annähern, wenn in etwa gilt: p = K/N £ 0,1 und n £ 0,1×N PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.4. Näherung der Normalverteilung an die Binomialverteilung 51 III. 4. Näherung der Normalverteilung an die Binomialverteilung Die Bedeutung der bisher rein theoretisch definierten Normalverteilung ergibt sich aus ihrer Eigenschaft, dass sich (unter bestimmten, sehr wenig einschränkenden Bedingungen) alle möglichen Verteilungen an sie annähern. Dies ist im sogenannten Zentralen Grenzwertsatz enthalten. Die Annäherung speziell von Binomialverteilungen an die Normalverteilung soll im Folgenden näher untersucht werden: Zeichnet man den Graphen der 16% Binomialverteilung für p = q = ½ und n = 12% 32, so erkennt man an dem entstehenden Häufigkeitspolygon eine B(32; 1/2) NV(16; 2,83) 8% groß e Ä hnlichkeit der ebenfalls eingetragenen Dichtefunktion der Normalverteilung: 4% 0% 0 4 8 12 µ = 16 20 24 28 32 Für die vorliegenden Werte lassen sich in der Zeichnung bereits keine Abweichungen mehr zwischen den Säulen (das heiß t der Binomialverteilung mit n = 32 und p = ½ ) und der durchgezogenen Linie (Werte der Normalverteilung mit µ = 32×½ = 16 und s = 32 × 1 2 × 1 2 ) = 2 2 erkennen. Nun gilt es also allgemein zu untersuchen, ob jede beliebige Binomialverteilung mit wachsender Stichproben- / Versuchsanzahl n gegen eine Normalverteilung strebt. Da bei größ er werdendem n auch µ und s gegen ¥ streben (das heiß t, der Verlauf wird immer flacher und der Graph verschiebt sich im Koordinatensystem immer weiter nach rechts), während die Standardnormalverteilung stets symmetrisch zur Ordinatenachse bleibt, ist ein Grenzübergang für n ® ¥ sicher nicht direkt möglich. Damit man nicht mit der allgemeinen Normalverteilung arbeiten muss, sollte die Binomialverteilung PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com also III.4. Näherung der Normalverteilung an die Binomialverteilung 52 standardisiert vorliegen. Um den Erwartungswert 0 und die Standardabweichung 1 zu erhalten, substituiert man und führt die neue standardisierte Zufallsgröße Z = Es soll also jetzt diese Behauptung bewiesen werden: lim jn(z) = n ®¥ n X-m ein. s 1 - 1 z2 ×e 2 2p Dies bezeichnet man als den Lokalen Grenzwertsatz von De Moivre und LaPlace. Da sich der Beweis über mehrere Schritte hinzieht, sind im gelb hinterlegten Bereich immer die Ergebnisse der links durchgeführten Berechnungen festgehalten. Somit kann man sich schnell einen Ü berblick über die Beweisführung verschaffen, ohne die einzelnen Rechnungen im Detail nachvollziehen zu müssen. Hier und auf den nächsten Seiten steht eigentlich der Beweis, der in der Datei „ III4BEW.DOC“ enthalten ist! PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.4. Näherung der Normalverteilung an die Binomialverteilung PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 53 III.4. Näherung der Normalverteilung an die Binomialverteilung 54 Da sich die Wahrscheinlichkeitsfunktion der Binomialverteilung und die Dichtefunktion der allgemeinen Normalverteilung aneinander annähern, besteht dieser Zusammenhang auch für die jeweiligen kumulativen Verteilungsfunktionen (der Wertebereich liegt ja bei beiden zwischen 0 und 1). Wie schon in Kapitel II.6. gezeigt kann man also binomialverteilte Wahr-scheinlichkeiten folgendermaß en approximieren: Ist X eine binomial verteilte Zufallsgröß e, so gilt näherungsweise: æ k - np + 12 ö ÷ npq ÷ø è P(X £ k) » F çç 1 æk -mö B(n; p; k) » × jç ÷= s è s ø 1 ×e 2 p × npq (k - np )2 2×npq æ k - np + 0,5 ö æ ö ÷ - Fç k - np - 0,5 ÷ oder: B(n; p; k) » Fç ç ÷ ç npq ø npq ÷ø è è Auf die Bedeutung der Summanden ± ½ wird im Folgenden noch genauer eingegangen: PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.4. Näherung der Normalverteilung an die Binomialverteilung æ ö æ 55 ö Die Näherung P(a £ X £ b) » Fç b - np ÷ - Fç a - np ÷ lässt sich besonders für kleine Werte ç npq ÷ ç npq ÷ è ø è ø von x beziehungsweise x-µ oft erheblich verbessern (vor allem, wenn a = b ist), wenn man æ b + 0,5 - np ö æ a - 0,5 - np ö ÷ - Fç ÷ npq ø npq ø . Diese sogenannte è statt dessen berechnet: P(a £ X £ b) » Fçè Kontinuitäts- oder Stetigkeitskorrektur lässt sich folgendermaß en rechtfertigen: Die Wahrscheinlichkeit P(a £ X £ b) entspricht der Fläche unter der Wahrscheinlichkeitsfunktion der Binomialverteilung, beziehungsweise annähernd der unter der Dichtefunktion der Normalverteilung. Die erste Näherung verwendet die Fläche NV unter der Dichtefunktion (schwarze Linie) zwischen den Werten a und b als Maß für die Wahrscheinlichkeit. Sie ist hier mit B waagrechten Strichen schraffiert: Exakt wäre aber der gesamte (gelb hinterlegte) Flä cheninhalt der vier Recht- a-0,5 a a+1 a+2 b b+0,5 ecke. Die Näherung mit der Korrektur nimmt noch zusätzlich die (senkrecht schraffierte) Fläche unter der Dichtefunktion bis zu den Grenzen a - 0,5 und b + 0,5 hinzu und verbessert so im Allgemeinen die Approximation. Definitionsgemäß kann man nur für große n gute Näherungen erwarten. Auß erdem ist die Binomialverteilung nur dann ausreichend genau normal verteilt, wenn sie in etwa symmetrisch ist (Þ p » ½ ). Dies schlägt sich auch in der Faustregel nieder: s = n × p × q > 9. Zur Verdeutlichung der Güte der Approximation sollen folgende zwei Beispiele dienen: 1) Ein neuer Schachcomputer fordert den Weltmeister heraus. Experten schätzen, dass die Chance zu gewinnen, bei der Maschine bei 60 % liegt. Es wird nun ein Turnier über zehn Spiele angesetzt. Wie hoch ist die Wahrscheinlichkeit, dass der Mensch unterliegt, also der Computer bei mindestens sechs Spielen als Sieger hervorgeht (Remis werden wiederholt)? · Die binomial verteilte Wahrscheinlichkeit lässt sich folgendermaß en korrekt berechnen: P(X ³ 6) = 1 – P(X £ 5) = 1 – F10;0,6(5) = 0,63310 = 63,3 % PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.4. Näherung der Normalverteilung an die Binomialverteilung 56 · Zur Berechnung durch die Normalverteilung benötigt man Erwartungswert und Standardabweichung: µ = 10×0,6 = 6; s = 10 × 0,6 × 0,4 = 2 5 15 . Somit erhält man: æ 5-6 ö æ ö ÷ = 1 - Fç - 15 ÷ = 1 - F(0,6455) = 0,74070 = 74,1% P(X ³ 6) = 1 – P(X £ 5) = 1 - Fç 2 ç 6 ÷ ç 15 ÷ è ø ø è5 Der Fehler, den man begeht, beläuft sich auf 17 %. Laut der Faustregel hätte man hier die Näherung durch die Normalverteilung auch gar nicht anwenden dürfen: npq = 2,4 < 9. Hier zeigt sich aber die Bedeutung der Stetigkeitskorrektur. Das Ergebnis weicht jetzt nur noch um 1 % vom Idealwert ab: æ 5 - 6 + 0,5 ö ö æ ÷ = 1 - Fç - 15 ÷ = 1 - F(0,3228) = 0,62656 = 62,7 % P(X £ 6) = 1 – P(X £ 5) = 1 - Fç 2 ç 12 ÷ ÷ ç ø è è 5 15 ø 2) Gesucht ist die Wahrscheinlichkeit dafür, dass bei 30 Würfen mit einem L-Würfel die (absolute) Häufigkeit der auftretenden Sechsen um höchstens eins vom erwarteten Mittelwert abweicht. Man fragt also nach P(4 £ X £ 6), da µ = np = 30/6 = 5 ist: · Exakte Berechnung mit Hilfe der Binomialverteilung: P(4 £ X £ 6) = P(3 < X £ 6) = F30;1/6(6) - F30;1/6(3) = 0,7765 – 0,2396 = 0,53692 = 53,7 % · Näherung durch die Normalverteilung: E(X) und Standardabweichung ergeben sich zu: m = 30 × 16 = 5 ; s = 10 × 16 × 56 = 5 6 6 æ 6 -5ö æ ö æ ö æ ö ÷ - Fç 3 - 5 ÷ = Fç 6 ÷ - 1 + Fç 2 6 ÷ = 52,4 % P(4 £ X £ 6) = P(3 < X £ 6) = Fç 5 5 ç ÷ ç ÷ ç 6÷ ç 6÷ è 5 ø è 5 ø è6 ø è6 ø Obwohl die Faustregel von npq > 9 nicht erfüllt ist (npq » 4,67), ergibt sich ein relativer Fehler von nur 2,3 %. Die Stetigkeitskorrektur verbessert das Ergebnis noch: P(3 £ X £ 6) = 0,53757 = 53,8 % Der Fehler beträgt nur noch 0,1 %. Je höher n ist, desto bessere Ergebnisse erwartet man. In der Tat differieren die Werte von P(9 £ X £ 11) bei n = 60 (also npq » 8,33) nur noch um 1,2 % (ohne Kontinuitätskorrektur). PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.5. Näherung der Normalverteilung an die hypergeometrische Verteilung 57 III. 5. Näherung der Normalverteilung an die hypergeometrische Verteilung Es wurde bereits gezeigt, dass die hypergeometrische eng mit der Binomialverteilung zusammenhängt (siehe Punkt III.1.). Da letztere mit Hilfe der Gauß schen Glockenkurve angenähert werden kann, ist es augenscheinlich, dass auch Zufallsexperimente, die auf dem Modell „ Ziehen mit Zurücklegen“ basieren, durch die Normalverteilung approximiert werden können. Diese Tatsache lässt sich unter anderem durch den Zentralen Grenzwertsatz belegen. Der exakte Beweis ist aber kompliziert und umfangreich, deshalb soll an dieser Stelle auf die Näherung nur durch die Berechnung von Beispielen eingegangen werden: 1) Die Wahrscheinlichkeitsrechnung hat zu Beginn vor allem im Bereich von Glü cksspielen eine groß e Rolle gespielt. So ein klassisches Beispiel soll jetzt durchgerechnet werden. Eines der berühmtesten Kartenspiele ist das Pokern. Um nicht auf Details der verschiedenen Varianten eingehen zu müssen, sollen hier nur Wahrscheinlichkeiten untersucht werden, mit denen man eine bestimmte Kombination von Karten beim (ersten) Austeilen in die Hand bekommt. Wie hoch ist nun die Wahrscheinlichkeit, dass man genau drei der vier im Spiel enthaltenen Asse erhält (jeder Spieler bekommt fünf Karten)? · Es wird natürlich nicht zurückgelegt und die Zufallsgröß e X = Anzahl der Asse auf der Hand ist hypergeometrisch verteilt. Die Wahrscheinlichkeit ist deshalb gegeben durch die Parameter: N = 52; K = 4; n = 5; k = 3: æ 4 ö æ 52 - 4 ö æ 48 ö çç ÷÷ × çç ÷÷ 4 × çç ÷÷ 3 5-5 ø 2 P(X = 3) = è ø è = è ø = 0,17 %; æ 52 ö æ 52 ö çç ÷÷ çç ÷÷ è5ø è5ø Þ 1 : 576 · Wendet man die Normalverteilung auf dieses Problem an, so errechnet man zuerst: µ = n×p = 5 × 524 = 5 13 48 52 - 5 × 52 -1 = ; s = n × KN × (1 - KN ) × NN--n1 = 5 × 524 × 52 5× 4××47 13×13×51 = 940 2873 » 0,572 Jetzt gilt (erfordert Kontinuitätskorrektur, da sich sonst die Wahrscheinlichkeit 0 ergibt): æ 3 + 12 - 135 ö æ 3 - 12 - 135 ö ÷÷ - Fçç ÷÷ = 0,0109 % = 0,01 %; P(X = 3) = Fçç è 0,572 ø è 0,572 ø Þ 1 : 9200 Diese Abschätzung ist mit einem Fehler von über 93 % behaftet und deshalb nutzlos. Besser gelingt die Näherung im nächsten Beispiel: PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.5. Näherung der Normalverteilung an die hypergeometrische Verteilung 58 2) Jedes der 5000 Mitglieder einer Bücherei hat seine eigene Karteikarte. 40 Prozent der Leser sind Frauen. Man zieht nun (ohne Zurücklegen) acht dieser Karten. Wie hoch ist die Wahrscheinlichkeit, dass höchstens sieben Frauen darunter sind (oder, gleichbedeutend damit, dass mindestens ein männliches Mitglied gezogen wird)? · Diese Zufallsgröß e X = Anzahl der gezogenen Frauen ist hypergeometrisch verteilt. Die Parameter sind: N = 5000; K = 2000; n = 8; k £ 7 Daraus ergibt sich eine exakte Wahrscheinlichkeit von: P(k £ 7) = æ 2000 ö æ 3000 ö ç ÷×ç ÷ 7 7 ç k ÷ø çè 8 - k ÷ø æ 2000 ö æ 3000 ö 1 è ÷×ç ÷= × å çç = P(k = 0) + P(k = 1)+...+P(k = 7) = å = æ 5000 ö k = 0 è k ÷ø çè 8 - k ÷ø æ 5000 ö k =0 çç ÷÷ çç ÷÷ è 8 ø è 8 ø = 1,67% + 8,95% + 20,9% + 27,89% + 23,24% + 12,38% + 4,12% + 0,78% = 99,94 % · Um die Normalverteilung als Näherung anwenden zu können, muss man zuerst die » 1,385 Größ en µ und s bestimmen: µ = n×p = 8×0,4 = 3,2; s = 8 × 0,4 × 0,6 × 4992 4999 æ 7 - 3,2 ö P(k £ 7) = Fç ÷ = F (2,744 ) = 0,99697 = 99,70 % è 1,385 ø Bei Anwendung dieser Näherung liegt der Fehler demnach unter 0,24 %. Mit Stetigkeitskorrektur ergibt sich für P(k £ 7) = F(3,105) = 99,90 % , wobei der Fehler jetzt sogar unter 0,03 % liegt. Für eine hypergeometrisch verteilte Zufallsgröß e X gilt näherungsweise: æ k - m + 0,5 ö÷ - F æç k - m - 0 5 ö÷ P(X = k) » F ç s , ø s è ø è æ M 1 ç k-n× + N 2 P(X £ k) » F M M M N - n (k ) = F çç n × ; n × ×(1- ) × M M N-n N N N N -1 ç n × × (1 - ) × N N N -1 è ö ÷ ÷ ÷ ÷ ø Wobei + ½ die Stetigkeitskorrektur ist. Faustregel: s = n×p×(1 – p) > 9; Bemerkung zu der Formel: Bei der hypergeometrischen Verteilung gilt ja: µ = n×p = n × M N und s2 = npq PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com n £ 0,1 N N-n . N -1 III.6. Näherung der Normalverteilung an die Poisson-Verteilung 59 III. 6. Näherung der Normalverteilung an die Poisson-Verteilung Möchte man die Annäherung der Poisson- an die Normalverteilung untersuchen, so muss man berücksichtigen, dass beide reine mathematisch-theoretisch definierte Näherungsverteilungen darstellen. Es gibt weder in der Theorie noch in der Praxis Größ en, die genau normal beziehungsweise 100%-ig Poisson-verteilt sind. Deshalb wird in diesem Abschnitt hauptsächlich darauf eingegangen, wie geeignet diese beiden Verteilungen sind, um die exakten Wahrscheinlichkeiten der Binomial- oder der hypergeometrischen Verteilung anzunähern. Analog zum bisherigen Verfahren werden die Beziehungen mit Hilfe zweier Beispiele verdeutlicht: 1) Am Karlsgymnasium Bad Reichenhall befinden sich insgesamt 878 Schü ler12. Bei einer leicht idealisierten Annahme einer Wahrscheinlichkeit von 1/365, dass jemand an einem bestimmten Tag im Jahr Geburtstag hat, wird nach der Wahrscheinlichkeit gefragt, dass genau sechs Schüler (zum Beispiel) an Weihnachten geboren sind. Die Werte der Binomial- (= 2,4 %) und der Poisson-Verteilung (= 2,4 %) sowie die relative Häufigkeit der Tage, an denen sechs Schüler gleichzeitig Geburtstag haben (= 1,4 %) lassen sich aus der Tabelle auf Seite 35 entnehmen. Die Berechnungen sind hier aber trotzdem aufgeführt und die Ergebnisse erneut fesgehalten: · Die exakte Berechnung erfordert die Binomialverteilung mit den Parametern n = 878; 6 1 p = /365 und k = 6: æ 878 ö æ 1 ö æ 364 ö ÷÷ × ç PB = çç ÷ ÷ ×ç è 6 ø è 365 ø è 365 ø 872 = 0,02418 = 2,42 % · Die Poisson-Näherung benötigt den Erwartungswert (auszurechnen wie bei binomial verteilten Zufallsgröß en): µ = n×p = 2,41; PP = e -m × mk 2,416 = e - 2, 41 × = 0,0243 = 2,43 % k! 6! · Die Normalverteilung hat folgende Momente: µ = n×p = 2,41; s = 12 n × p × q = 1,55; Stand 13. Januar 1998; siehe auch Tabelle im Anhang; PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.6. Näherung der Normalverteilung an die Poisson-Verteilung 60 æ 6,5 - 2,41 ö æ 5,5 - 2,41 ö PN = Fç ÷ - Fç ÷ = F(2,64 ) - F (2,00 ) = 1,88 % è 1,55 ø è 1,55 ø Die Normalverteilung (Fehler: ü ber 22 %) stellt hier eine schlechtere Nä herung als die Poisson-Approximation (Fehler: 0,40 %) für die Binomialverteilung dar. 2) Ein Zöllner weiß , dass sich unter den nächsten 40 Passanten zwei Schmuggler befinden. Da er nicht alle vierzig Personen kontrollieren kann, aber mindestens einen von ihnen überführen möchte, wählt er n der vierzig Menschen aus. Wie viele muss er untersuchen, um mit einer Wahrscheinlichkeit von mindestens 90 % einen oder beide Täter zu ertappen? · Es liegt eine hypergeometrische Verteilung vor, mit N = 40; K = 2; k ³ 1; æ 2 ö æ 40 - 2 ö ÷÷ 0,9 = PH(X ³ 1) = 1 – P(X = 0) = 1 – H(40; 2; n; 0) = 1 - çç ÷÷ × çç è 0ø è n - 0 ø Þ (40 - n ) × (39 - n ) = 0,1 40 × 39 æ 40 ö çç ÷÷ ènø Die Auswertung dieser quadratischen Gleichung ergibt als den sinnvollen Wert: n = 27 (n2 = 52) ænö · Die Binomialverteilung (mit p = 2/40 = 0,05) ergibt: 0,9 = PB = 1 - çç ÷÷ × 0,05 n × 0,95 n -0 ; è0ø Daraus folgt: n = ln(0,1) ln(0,95) = 44,89 » 45. Es müssten also alle durchsucht werden. · Der zur Poisson-Verteilung gehörende Erwartungswert ist µ = n×p = n×2/40 = 0,05×n Der Ansatz lautet demnach: 0,9 = PP = 1 – Logarithmieren erhält man für e -0, 05×n × (0,05 × n )0 0! = e -0, 05×n . Durch n > 46,05, das heiß t, n = 47. Dies entspricht einer Totalkontrolle. · Die Normalverteilung (µ = 0,05×n und s= n × KN × (1 - K N ) × NN--n1 = n × 402 × 38 × 4039- n = 40 0,0012 × n × (40 - n ) ) nähert die Anzahl folgendermaß en: æ 0 - 0,05 × n + 0,5 ö ÷ . Daraus folgt: 0,9 = PN = 1 - Fç ç 0,0012 × n × (40 - n ) ÷ ø è 0 - 0,05 × n + 0,5 0,0012 × n × (40 - n ) = -1,281 . Löst man diese Gleichung, so erhält man n = 26,7. Es müssen damit nur n = 27 Leute kontrolliert werden. Vergleicht man nun die verschiedenen Näherungen, die im zweiten Beispiel auftreten, so kommt man zu folgendem Ergebnis: PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com III.6. Näherung der Normalverteilung an die Poisson-Verteilung 61 Das schlechteste Resultat erhält man mit der Poisson-Verteilung (Fehler: ü ber 42 %). Auch die Binomialverteilung bringt keine befriedigende Approximation mit sich (Fehler: etwa 40 %). Allein durch Anwendung der Normalverteilung erhält man einen brauchbaren Wert (in diesem Fall sogar das exakte Ergebnis). Wie man sehen konnte, sind die Voraussetzungen, die erfüllt sein müssen, damit man die Poisson-Verteilung als annähernd normal verteilt ansehen kann, nicht einfach zu fassen. Trotzdem ist in den meisten Fällen folgende Bedingung für eine gute Näherung ausreichend: s=µ >9 Bei groß em Parameter µ gilt für eine Poisson-verteilte Zufallsgröß e X näherungsweise: æ k - m + 0,5 ö÷ æk 0,5 ö÷ - Fçç - m ÷ ÷ø m m è è ø P(X = k) = F çç æ k -m+0 5ö , ÷÷ m è ø P(X £ k) = F çç PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 62 Hier befinden sich eigentlich die großen Ü bersichten ü ber die besprochenen Verteilungen. Dieses Blatt konnte aber nur mit Hilfe eines Kopierers hergestellt werden. Die verwendeten Daten und Teile befinden sich in den Dateien ‚IVA3.DOC‘ und ‚IV.DOC‘. PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 63 ANHANG PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com Statistik des Karlsgymnasiums Bad Reichenhall; Stand 13. Januar 1998 An dem jeweiligen Tag haben genau k Schüler Geburtstag. Tage, an denen kein Gymnasiast Geburtstag hat, sind weggelassen. 64 Tag k Tag k Tag k Tag k Tag k Tag k 01. Jan 02. Jan 03. Jan 04. Jan 05. Jan 06. Jan 07. Jan 08. Jan 09. Jan 10. Jan 13. Jan 14. Jan 15. Jan 16. Jan 17. Jan 18. Jan 19. Jan 20. Jan 21. Jan 22. Jan 23. Jan 24. Jan 25. Jan 26. Jan 27. Jan 28. Jan 30. Jan 31. Jan 01. Feb 02. Feb 03. Feb 05. Feb 07. Feb 08. Feb 09. Feb 10. Feb 12. Feb 13. Feb 14. Feb 15. Feb 16. Feb 17. Feb 18. Feb 19. Feb 20. Feb 21. Feb 22. Feb 23. Feb 24. Feb 25. Feb 26. Feb 27. Feb 28. Feb 01. Mär 02. Mä r 03. Mä r 04. Mä r 1 3 7 7 2 4 2 7 3 5 2 3 3 6 3 2 1 1 2 2 1 1 4 2 1 1 7 5 2 2 3 2 3 4 4 3 2 3 2 3 1 2 3 1 2 1 2 1 2 4 2 2 2 2 5 5 4 05. Mä r 06. Mä r 07. Mä r 08. Mä r 09. Mä r 10. Mä r 11. Mä r 12. Mä r 13. Mä r 15. Mä r 16. Mä r 17. Mä r 18. Mä r 19. Mä r 21. Mä r 22. Mä r 24. Mä r 25. Mä r 27. Mä r 28. Mä r 29. Mä r 30. Mä r 31. Mä r 01. Apr 02. Apr 03. Apr 04. Apr 08. Apr 09. Apr 10. Apr 11. Apr 12. Apr 13. Apr 15. Apr 16. Apr 17. Apr 18. Apr 19. Apr 21. Apr 22. Apr 23. Apr 25. Apr 26. Apr 27. Apr 28. Apr 01. Mai 02. Mai 03. Mai 05. Mai 06. Mai 07. Mai 08. Mai 10. Mai 12. Mai 13. Mai 14. Mai 16. Mai 1 4 1 2 3 2 3 1 1 4 5 3 3 1 2 4 3 1 3 2 2 3 5 2 2 2 3 1 7 3 5 1 1 2 3 3 5 1 5 1 3 4 2 2 4 2 1 7 1 2 5 1 2 7 3 4 5 17. Mai 18. Mai 19. Mai 20. Mai 21. Mai 22. Mai 23. Mai 25. Mai 26. Mai 27. Mai 29. Mai 31. Mai 01. Jun 02. Jun 03. Jun 05. Jun 07. Jun 08. Jun 09. Jun 10. Jun 11. Jun 12. Jun 13. Jun 14. Jun 15. Jun 16. Jun 17. Jun 18. Jun 19. Jun 21. Jun 22. Jun 23. Jun 24. Jun 25. Jun 26. Jun 27. Jun 28. Jun 29. Jun 02. Jul 03. Jul 04. Jul 05. Jul 07. Jul 08. Jul 09. Jul 10. Jul 11. Jul 12. Jul 13. Jul 14. Jul 15. Jul 16. Jul 17. Jul 19. Jul 20. Jul 21. Jul 22. Jul 3 4 3 2 4 4 1 1 1 2 2 1 1 1 4 6 2 2 2 1 4 4 5 3 2 1 2 2 1 1 1 4 1 3 2 2 1 4 1 3 2 2 6 5 4 5 2 3 1 2 4 1 2 2 2 5 2 23. Jul 24. Jul 25. Jul 26. Jul 27. Jul 28. Jul 29. Jul 30. Jul 31. Jul 01. Aug 02. Aug 03. Aug 04. Aug 05. Aug 07. Aug 08. Aug 09. Aug 10. Aug 11. Aug 12. Aug 13. Aug 14. Aug 15. Aug 16. Aug 17. Aug 18. Aug 19. Aug 20. Aug 21. Aug 22. Aug 23. Aug 24. Aug 26. Aug 28. Aug 30. Aug 31. Aug 01. Sep 02. Sep 03. Sep 04. Sep 05. Sep 06. Sep 07. Sep 09. Sep 10. Sep 11. Sep 12. Sep 13. Sep 14. Sep 15. Sep 16. Sep 17. Sep 18. Sep 19. Sep 20. Sep 21. Sep 22. Sep 4 5 3 1 9 5 3 6 3 1 1 2 2 1 2 3 3 1 2 4 1 2 4 1 1 2 3 1 4 3 3 3 2 5 1 1 1 3 4 2 3 5 3 3 4 2 4 5 8 4 1 2 3 1 1 1 8 23. Sep 25. Sep 26. Sep 27. Sep 28. Sep 30. Sep 03. Okt 04. Okt 06. Okt 08. Okt 09. Okt 10. Okt 11. Okt 12. Okt 13. Okt 14. Okt 15. Okt 16. Okt 17. Okt 18. Okt 19. Okt 20. Okt 21. Okt 22. Okt 23. Okt 24. Okt 25. Okt 26. Okt 27. Okt 28. Okt 29. Okt 30. Okt 31. Okt 01. Nov 02. Nov 03. Nov 04. Nov 06. Nov 07. Nov 08. Nov 09. Nov 10. Nov 11. Nov 12. Nov 13. Nov 14. Nov 15. Nov 16. Nov 17. Nov 18. Nov 19. Nov 20. Nov 21. Nov 24. Nov 25. Nov 26. Nov 28. Nov 2 2 1 3 1 4 2 2 1 1 1 3 4 2 7 1 2 2 1 3 3 3 3 1 4 2 1 3 2 1 5 2 1 2 5 1 4 4 1 2 5 4 1 3 5 2 2 1 3 4 2 1 2 4 2 3 1 29. Nov 30. Nov 01. Dez 02. Dez 03. Dez 04. Dez 05. Dez 06. Dez 07. Dez 08. Dez 09. Dez 10. Dez 11. Dez 12. Dez 13. Dez 14. Dez 15. Dez 16. Dez 17. Dez 18. Dez 19. Dez 20. Dez 21. Dez 22. Dez 23. Dez 24. Dez 25. Dez 26. Dez 27. Dez 28. Dez 29. Dez 30. Dez 31. Dez 5 5 3 2 1 3 1 2 1 3 8 2 2 2 4 5 4 2 2 7 2 5 5 4 2 3 3 1 1 2 4 3 6 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 65 Verzeichnis der zur Anfertigung dieser Arbeit herangezogenen Bü cher: · „ Schülerduden Die Mathematik II“ ; Dudenverlag; 3. Auflage, Mannheim 1991 · J. Pfanzagl „ Allgemeine Methodenlehre der Statistik II“ ; Walter de Gruyter, 2. Auflage, Berlin 1966 · F. Reinhardt / H. Soeder „ dtv-Atlas zur Mathematik“ , Band 2; Deutscher Taschenbuchverlag, 9. Auflage, München 1994 · H. Meschkowski „ Wahrscheinlichkeitsrechnung“ ; Bibliographisches Institut AG, Mannheim 1968 · Stöckner „ Taschenbuch mathematischer Formeln und moderner Verfahren“ , Seiten 656 - 663 · J. Laub „ Lehrbuch der Mathematik für die Oberstufe der allgemeinbildenden höheren Schulen“ , 4. Band; Hölder-Pichler-Tempsky, Wien 1981 · L. Schmetterer „ Einführung in die mathematische Statistik“ ; Springer-Verlag, Wien 1956 · Barth × Bergold × Haller „ Stochastik 1“; Franz Ehrenwirth Verlag, München 1976 · Barth × Bergold × Haller „ Stochastik 2“; Franz Ehrenwirth Verlag, München 1974 · Heller × Lindenberg × Nuske × Schriever „ Wahrscheinlichkeitsrechnung“ , Teil 1; Birkhäuser Verlag, Basel 1979 · Heller × Lindenberg × Nuske × Schriever „ Wahrscheinlichkeitsrechnung“ , Teil 2; Birkhäuser Verlag, Basel 1979 · H. Malle „ Mathematik für Techniker“ , Band 2, Seiten 114 - 149 · William Feller „ An Introduction to Probability Theory and Its Applications“ , Volume 1; Wiley & Sons, New York, Seiten 172 - 192 · Heigl / Feurpfeil „ Stochastik, Leistungskurs Mathematik“ ; Bayerischer Schulbuch-Verlag, 2. Auflage, München 1976 PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com 66 Ich erklä re hiermit, dass ich die Facharbeit ohne fremde Hilfe angefertigt und nur die im Literaturverzeichnis angeführten Quellen und Hilfsmittel benützt habe. Bad Reichenhall 2.2.98 Ort Datum ................................................. , den ................... ............................................ Unterschrift des Schülers PDF created with FinePrint pdfFactory Pro trial version http://www.fineprint.com