Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Statistische Methoden II SS 2008 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag 10.00 - 12.30 (Pause: 11.30 - 11.45) Ort:Hörsaal Makarenkostraße (Kiste)

Ähnliche Präsentationen


Präsentation zum Thema: "Statistische Methoden II SS 2008 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag 10.00 - 12.30 (Pause: 11.30 - 11.45) Ort:Hörsaal Makarenkostraße (Kiste)"—  Präsentation transkript:

1 Statistische Methoden II SS 2008 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag 10.00 - 12.30 (Pause: 11.30 - 11.45) Ort:Hörsaal Makarenkostraße (Kiste) Übungen Gruppe 2: Hermann Haase Di 8.00 - 10.00 SR 222 Gruppe 1: Hermann Haase Di 10.00 - 12.00 SR 222 Gruppe 5: Michael Schürmann Di 12.00 - 14.00 SR 222 Gruppe 7: Sebastian Grapenthin Di 14:00 - 16:00 HS 11 Gruppe 8: - fällt weg - Di 16:00 -18:00 SR 5 Gruppe 4: Sabine Storandt Mi 8.00 - 10.00 SR 222 Gruppe 3: - fällt weg - Mi 10.00 - 12.00 SR 222 Gruppe 6: Sebastian Grapenthin Mi 12.00 - 14.00 SR 3 SR 222 : Fleischmannstraße 6 SR 3 : Loefflerstraße 70 HS 11 : Domstraße 9a (Hist. Institut)

2 Wahrscheinlichkeitstheorie

3 Statistische Methoden I WS 2002/2003 Zur Geschichte der Statistik I. Beschreibende Statistik 1. Grundlegende Begriffe 2. Eindimensionales Datenmaterial 2.1. Der Häufigkeitsbegriff 2.2. Lage- und Streuungsparameter 2.3. Konzentrationsmaße (Lorenz-Kurve) 3. Mehrdimensionales Datenmaterial 3.1. Korrelations- und Regressionsrechnung 3.2. Indexzahlen 3.3. Saisonbereinigung

4 II. Wahrscheinlichkeitstheorie 1. Laplacesche Wahrscheinlicheitsräume 1.1. Kombinatorische Formeln 1.2. Berechnung von Laplace-Wahrschein- lichkeiten 2. Allgemeine Wahrscheinlichkeitsräume 2.1. Der diskrete Fall 2.2. Der stetige Fall 2.3. Unabhängigkeit und bedingte Wahrscheinlichkeit 3. Zufallsvariablen 3.1. Grundbegriffe 3.2. Erwartungswert und Varianz 3.3. Binomial- und Poisson-Verteilung 3.4. Die Normalverteilung und der Zentrale Grenzwertsatz

5 4. Markov-Ketten 4.1. Übergangsmatrizen 4.2. Grenzverhalten irreduzibler Markov-Ketten 4.3. Gewinnwahrscheinlichkeiten 4.4. Beispiel Ruin der Spieler 4.5. Anwendungen

6 Beschreibende Statistik (= Deskriptive Statistik) Beschreibung von Datenmaterial Schließenden Statistik (= Induktive Statistik) Analyse von Datenmaterial, Hypothesen, Prognosen 1. Semester 2. Semester Wahrscheinlich- keitstheorie

7 Laplacescher Wahrscheinlicheitsraum

8 Wahrscheinlichkeitstheoretische Interpretation von Mengenoperationen Vereinigung Durchschnitt

9 Differenz Komplement

10

11 Wahrscheinlichkeitsräume

12 Eigenschaften eines Wahrscheinlichkeitsmaßes Daraus ergeben sich:

13 Urnenmodelle

14

15 Aufgabe 1

16 Die Poisson-Verteilung

17 Man erhält eine Wahrscheinlichkeitsverteilung, weil gilt: Notation

18 Die Binomialverteilung

19 Man erhält eine Wahrscheinlichkeitsverteilung, weil gilt: Notation

20 Die geometrische Verteilung Man erhält eine Wahrscheinlichkeitsverteilung, weil gilt:

21 Die hypergeometrische Verteilung Notation

22 Eine Urne enthält n Kugeln, davon N weiße und n - N schwarze. Aus der Urne werden nacheinander m Kugeln ohne Zurücklegen gezogen. Wie groß ist die Wahrscheinlichkeit, genau k weiße Kugeln zu ziehen? Sie beträgt gerade H(n, N, m)(k)!

23 Aufgabe 2

24 Aufgabe 3

25 Wahrscheinlichkeitsdichten

26 Die Exponential-Verteilung

27 Die Gauß- oder Normalverteilung

28 Gauß-Bildnis und –Kurve auf 100 DM-Schein

29 Die Cauchy-Verteilung

30 Die Student- oder t-Verteilung Hängt von Parameter n ab!

31 Die Chi-Quadrat-Verteilung Hängt ebenfalls von Parameter n ab!

32 Unabhängigkeit Vier Spielkarten zeigen auf der Vorderseite die folgenden Aufschriften: 1 Eine Karte wird zufällig gezogen. Ereignisse A, B und C A : Oben steht eine 0 B: In der Mitte steht eine 0 C: Unten steht eine 0 1 0 1 0 1

33 Trotzdem sind die Ereignisse A, B und C nicht unabhängig: d. h. C kann nicht eintreten, wenn A und B eintreten. Man hat zwar:

34 Allgemein definiert man:

35 Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt sich die folgende Tabelle:

36 Also haben wir: Allgemein definiert man:

37 Aufgabe 4

38 Aufgabe 5

39 Pfadregel

40 Dann hat man:

41 1.1.2 1.2.22.1.12.1.22.1.3 3.2.13.2.2 3.3.1 1.2.13.3.2 1.1 1.2 2.1 3.1 3.2 3.3 1 2 3 START p(1) p(2) p(3) p(1.1.2 1.1) p(2.1.1 2.1) p(3.3.1 3.3) p(1.2 1) p(3.3 3) p(2.1 2) (Eigentlich z. B. b(1.2.1) statt 1.2.1) Baumdiagramm 1.1.11.2.33.1.

42 Wir betrachten eine Urne mit einer roten und 3 grünen Kugeln. 1.Stufe: Eine Kugel wird zufällig gezogen, ihre Farbe notiert. Anschließend werden diese und eine Kugel derselben Farbe in die Urne zurückgelegt. 2. Stufe: Nach dem guten Mischen wird erneut eine Kugel zufällig gezogen und deren Farbe notiert. Urne mit roten und grünen Kugeln

43 START 0 1 0011 3/4 1/4 4/5 1/53/52/5 Baumdiagramm

44 Aufgabe 6

45 Formel von der totalen Wahrscheinlichkeit Einkommensverteilung der Haushalte in einer bestimmten Gegend Anteil der Haushalte, die ein Auto > DM 40 000,- anschaf- fen, in den verschiedenen Einkommensklassen

46 Es ergibt sich: Also nach der Formel für die totale Wahrscheinlichkeit: 5

47 Allgemein: Formel von der totalen Wahrscheinlichkeit

48 Satz von Bayes In einer Stadt vermutet man, dass für die Bevölkerung die folgende Aufteilung in Deutsche, Italiener und Ausländer, die keine Italiener sind, besteht: wobei die letzte Zeile den jeweiligen Anteil von Personen in der Bevölkerungsgruppe angibt, die gerne Spaghetti bestellen.

49 Jemand bestellt in einer Gaststätte Spaghetti. Wie groß ist die Wahrscheinlichkeit, dass dieser Gast ein Deutscher, ein Italiener oder ein nicht-italienischer Aus- länder ist? D: Der Gast ist ein Deutscher I: Der Gast ist ein Italiener A: Der Gast ist ein Ausländer, aber kein Italiener S: Der Gast bestellt Spaghetti

50 Nach der Formel für die totale Wahrscheinlichkeit hat man: Daraus ergibt sich nach dem Satz von Bayes

51 Satz von Bayes

52 Lernen aus Erfahrung Beispiel Eine Urne enthält 4 Kugeln.Wir wissen, dass eine der folgen- den Situationen A 1, A 2 oder A 3 vorliegt: A 1 : eine Kugel ist rot, die drei anderen sind grün A 2 : zwei Kugeln sind rot, die beiden anderen grün A 3 : drei Kugeln sind rot, eine ist grün Die Wahrscheinlichkeiten für die drei Möglichkeiten sind un- bekannt. Wir setzen: P(A 1 ) = p 1 P(A 2 ) = p 2 P(A 3 ) = p 3

53 Wir ziehen aus der Urne m Kugeln mit Zurücklegen. Nehmen wir nun an, dass das Ereignis B geschieht. Bei jedem Zug zeigt sich eine rote Kugel B Dann hat man:

54 Nach dem Satz von Bayes erhalten wir: Ebenso :

55 Für große m nähert sich die bedingte Wahr- scheinlichkeit für A 3 gegeben B dem Wert 1, während sich die bedingten Wahrscheinlich- keiten für A 1 und A 2 dem Wert 0 annähern. Unabhängig von den Werten für p 1, p 2 und p 3 hat man:

56 Aufgabe 7

57 Grundbegriffe der (deskriptiven) Statistikder Wahrscheinlichkeitstheorie

58 Verteilungsfunktion Beispiel Würfel

59 Verteilungsfunktion Beispiel n-facher Münzwurf

60 Verteilungsfunktion der Normalverteilung I

61 Verteilungsfunktion der Normalverteilung II

62 Verteilungsfunktion Beispiel Haushaltsgröße

63

64 Häufigkeitstabelle für das Jahr 1980 (laut Schlittgen) Verteilungsfunktion

65 Zufallsvariablen Verteilung Verteilungsfunktion Wahrscheinlichkeitsfunktion Dichtefunktion Verteilung Die Verteilung einer ZV ist ein Wahrscheinlichkeitsmaß auf den reellen Zahlen diskret stetig

66 diskret f nennt man Wahrscheinlichkeitsfunktion von X

67 stetig f nennt man Dichtefunktion von X

68 Verteilungsfunktion diskret stetig

69 diskret stetig

70 Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz

71 Die Binomialverteilung

72 Erwartungswert Varianz

73 Gegeben seien n Zufallsvariablen Dann gilt immer: Wenn gilt dann hat man auch Gleichheit von Bienaymé

74 Der diskrete unendliche Fall Dabei nehmen wir an, dass Erwartungswert Varianz Erwartungswert und Varianz II

75 Die Poisson-Verteilung

76 Erwartungswert Varianz

77 Der stetige Fall f ist die Wahrscheinlichkeitsdichte. Dabei nehmen wir an, dass Erwartungswert und Varianz III

78 Erwartungswert Varianz

79 Die Gauß- oder Normalverteilung

80 Aufgabe 8

81 Aufgabe 9

82 Dichte Verteilung Verteilungsfunktion

83 Erwartungswert Varianz

84 Die hypergeometrische Verteilung Notation

85 Erwartungswert Varianz

86 Die geometrische Verteilung Man erhält eine Wahrscheinlichkeitsverteilung, weil gilt:

87 Erwartungswert Varianz

88 Die Exponential-Verteilung

89 Dichte Verteilung Verteilungsfunktion

90 Erwartungswert Varianz

91 Beispiele Poisson-verteilter Zufallsvariablen Anzahl der pro Zeiteinheit abgestrahlten Teilchen eines radioaktiven Präparats Anzahl der pro Zeiteinheit an einer Tankstelle tankenden PKW Anzahl der Sechser pro Ausspielung im Lotto Anzahl der pro Jahr von einer Versicherung zu regulierenden Schadensfälle Anzahl der innerhalbeines Tages geborenen Kinder

92 Brösel Bäckerei Brösel X : Anzahl der Kunden in der Bäckerei Brösel zwischen 7.00 Uhr und 7.15 Uhr n : Anzahl der betrachteten Haushalte Annahmen Die Wahrscheinlichkeit p, dass ein Haushalt zu der Zeit bei Brösel einkauft, ist bei allen Haushalten gleich Die Haushalte entscheiden unabhängig voneinander, ob sie bei Brösel einkaufen oder nicht

93 Dann gilt: d. h.

94 Nun wird die Anzahl n der betrachteten Haushalte vergrößert. Die Einkaufswahrscheinlichkeit p hänge dabei so von n ab, dass gilt: Dann konvergiert die Verteilung von X gegen eine Poisson- Verteilung. Genauer: Man hat im Limes n gegen unendlich

95 Der Zentrale Grenzwertsatz

96 Aufgabe 10

97 Tafel für die Verteilungsfunktion bei Normalverteilung

98 Aufgabe 11

99 Beispiel Äpfeln Gewicht von Äpfeln Gewicht von Äpfeln der Sorte Cox-Orange aus einem bestimmten italienischen Anbaugebiet Schätzer von

100 Wichtige Eigenschaft der Normalverteilung Für unabhängige normalverteilte Zufallsvariablen X und Y hat man

101 + - 1/3 1/4

102 2 3 1 1/2 3/4 1/2 1

103 Endliche Markov-Ketten Der Aktienkurs der ZB-Aktie zeige das folgende Verhalten: - Wenn der Kurs heute gegenüber gestern gestiegen ist, dann steigt er morgen ebenfalls mit der Wahr- scheinlichkeit 2/3 und fällt morgen mit der Wahr- scheinlichkeit 1/3 (gegenüber heute). - Ist jedoch der Kurs heute gegenüber gestern gefallen, dann fällt er morgen ebenfalls mit der Wahr- scheinlichkeit 3/4 und steigt morgen mit der Wahr- scheinlichkeit 1/4 (gegenüber heute).

104 Wir versehen jeden Tag mit einem Plus (+) oder mit einem Minus (-) je nachdem, ob der Kurs an diesem Tag gegenüber dem Vortag gestiegen oder gefallen ist. Dann hängt die Prognose dafür, ob der Kurs morgen gegenüber heute steigt oder fällt, nur davon ab, ob die Aktie heute mit einem + oder mit einem – versehen ist. +- + + - - 2/3 1/3 1/4 3/4

105 + - 1/3 1/4

106 Problem 1 Problem 1: Wie groß ist die Wahrscheinlichkeit, in 10 Tagen einen Minus-Tag zu haben, wenn heute ein Plus-Tag ist? Problem 2 Problem 2: Wie entwickelt sich die Wahrscheinlichkeit, in n Tagen einen Minus-Tag zu haben, wenn heute ein Plus-Tag ist, für großes n? Strebt diese Wahrscheinlichkeit für n gegen einen festen Wert? Was passiert, wenn man von einem Minus-Tag aus startet?

107 2 3 1 1/4 1/2 3/4 1/2 1

108 Die Maus in der Wohnung! Sie geht jeweils von einem Zimmer zu einem zufälligen Nachbarzimmer. Wie groß ist ihre Gewinnchance ? 5 4 KATZE Verlustzustand 1 MAUS Startzustand 2 3 KÄSE Gewinnzustand (Vorlesung Prof. Bandt)

109 123 5 4 1/2 1/3 1/2 1/3 KÄSE KATZE MAUS

110 0 1 2........ m-1 p p p p q q q q m

111 0 1 2........ p p p p q q q q q m........ Ruin des Spielers

112 Anwendungen von Markov-Ketten Warteschlangen-Modelle Lagerhaltung Krankenstand in einem Betrieb und viele weitere ….

113 Aufgabe 12

114 Aufgabe 13

115 Aufgabe 14

116 Aufgabe 15


Herunterladen ppt "Statistische Methoden II SS 2008 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag 10.00 - 12.30 (Pause: 11.30 - 11.45) Ort:Hörsaal Makarenkostraße (Kiste)"

Ähnliche Präsentationen


Google-Anzeigen