Wahrscheinlichkeitstheorie
Statistische Methoden I WS 2002/2003 Zur Geschichte der Statistik I. Beschreibende Statistik 1. Grundlegende Begriffe 2. Eindimensionales Datenmaterial 2.1. Der Häufigkeitsbegriff 2.2. Lage- und Streuungsparameter 2.3. Konzentrationsmaße (Lorenz-Kurve) 3. Mehrdimensionales Datenmaterial 3.1. Korrelations- und Regressionsrechnung 3.2. Indexzahlen 3.3. Saisonbereinigung
II. Wahrscheinlichkeitstheorie 1. Laplacesche Wahrscheinlicheitsräume 1.1. Kombinatorische Formeln 1.2. Berechnung von Laplace-Wahrschein- lichkeiten 2. Allgemeine Wahrscheinlichkeitsräume 2.1. Der diskrete Fall 2.2. Der stetige Fall 2.3. Unabhängigkeit und bedingte Wahrscheinlichkeit 3. Zufallsvariablen 3.1. Grundbegriffe 3.2. Erwartungswert und Varianz 3.3. Binomial- und Poisson-Verteilung 3.4. Die Normalverteilung und der Zentrale Grenzwertsatz
Beschreibende Statistik (= Deskriptive Statistik) Beschreibung von Datenmaterial Schließenden Statistik (= Induktive Statistik) Analyse von Datenmaterial, Hypothesen, Prognosen 1. Semester 2. Semester Wahrscheinlich- keitstheorie
Laplacescher Wahrscheinlicheitsraum
Wahrscheinlichkeitstheoretische Interpretation von Mengenoperationen Vereinigung Durchschnitt
Differenz Komplement
Wahrscheinlichkeitsräume
Eigenschaften eines Wahrscheinlichkeitsmaßes Daraus ergeben sich:
Urnenmodelle
Achtung Aufgabe!
Die Normalverteilung (Gauß-Verteilung) (Gaußsche Glockenkurve)
Die Poisson-Verteilung
Man erhält eine Wahrscheinlichkeitsverteilung, weil gilt: Notation
Die Binomialverteilung
Man erhält eine Wahrscheinlichkeitsverteilung, weil gilt: Notation
Die geometrische Verteilung Man erhält eine Wahrscheinlichkeitsverteilung, weil gilt:
Die hypergeometrische Verteilung Notation
Eine Urne enthält n Kugeln, davon N weiße und n - N schwarze. Aus der Urne werden nacheinander m Kugeln ohne Zurücklegen gezogen. Wie groß ist die Wahrscheinlichkeit, genau k weiße Kugeln zu ziehen? Sie beträgt gerade H(n, N, m)(k)!
Achtung Aufgabe!
Achtung noch eine
Wahrscheinlichkeitsdichten
Die Exponential-Verteilung
Die Gauß- oder Normalverteilung
Gauß-Bildnis und –Kurve auf 100 DM-Schein
Die Cauchy-Verteilung
Die Student- oder t-Verteilung Hängt von Parameter n ab!
Die Chi-Quadrat-Verteilung Hängt ebenfalls von Parameter n ab!
Unabhängigkeit Vier Spielkarten zeigen auf der Vorderseite die folgenden Aufschriften: 1 Eine Karte wird zufällig gezogen. Ereignisse A, B und C A : Oben steht eine 0 B: In der Mitte steht eine 0 C: Unten steht eine
Trotzdem sind die Ereignisse A, B und C nicht unabhängig: d. h. C kann nicht eintreten, wenn A und B eintreten. Man hat zwar:
Allgemein definiert man:
Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt sich die folgende Tabelle:
Also haben wir: Allgemein definiert man:
Achtung Aufgabe!
Achtung
Pfadregel
Dann hat man:
START p(1) p(2) p(3) p( ) p( ) p( ) p(1.2 1) p(3.3 3) p(2.1 2) (Eigentlich z. B. b(1.2.1) statt 1.2.1) Baumdiagramm
Wir betrachten eine Urne mit einer roten und 3 grünen Kugeln. 1.Stufe: Eine Kugel wird zufällig gezogen, ihre Farbe notiert. Anschließend werden diese und eine Kugel derselben Farbe in die Urne zurückgelegt. 2. Stufe: Nach dem guten Mischen wird erneut eine Kugel zufällig gezogen und deren Farbe notiert. Urne mit roten und grünen Kugeln
START /4 1/4 4/5 1/53/52/5 Baumdiagramm
Achtung Aufgabe!
Formel von der totalen Wahrscheinlichkeit Einkommensverteilung der Haushalte in einer bestimmten Gegend Anteil der Haushalte, die ein Auto > DM ,- anschaf- fen, in den verschiedenen Einkommensklassen
Es ergibt sich: Also nach der Formel für die totale Wahrscheinlichkeit: 5
Allgemein: Formel von der totalen Wahrscheinlichkeit
Satz von Bayes In einer Stadt vermutet man, dass für die Bevölkerung die folgende Aufteilung in Deutsche, Italiener und Ausländer, die keine Italiener sind, besteht: wobei die letzte Zeile den jeweiligen Anteil von Personen in der Bevölkerungsgruppe angibt, die gerne Spaghetti bestellen.
Jemand bestellt in einer Gaststätte Spaghetti. Wie groß ist die Wahrscheinlichkeit, dass dieser Gast ein Deutscher, ein Italiener oder ein nicht-italienischer Aus- länder ist? D: Der Gast ist ein Deutscher I: Der Gast ist ein Italiener A: Der Gast ist ein Ausländer, aber kein Italiener S: Der Gast bestellt Spaghetti
Nach der Formel für die totale Wahrscheinlichkeit hat man: Daraus ergibt sich nach dem Satz von Bayes
Satz von Bayes
Lernen aus Erfahrung Beispiel Eine Urne enthält 4 Kugeln.Wir wissen, dass eine der folgen- den Situationen A 1, A 2 oder A 3 vorliegt: A 1 : eine Kugel ist rot, die drei anderen sind grün A 2 : zwei Kugeln sind rot, die beiden anderen grün A 3 : drei Kugeln sind rot, eine ist grün Die Wahrscheinlichkeiten für die drei Möglichkeiten sind un- bekannt. Wir setzen: P(A 1 ) = p 1 P(A 2 ) = p 2 P(A 3 ) = p 3
Wir ziehen aus der Urne m Kugeln mit Zurücklegen. Nehmen wir nun an, dass das Ereignis B geschieht. Bei jedem Zug zeigt sich eine rote Kugel B Dann hat man:
Nach dem Satz von Bayes erhalten wir: Ebenso :
Für große m nähert sich die bedingte Wahr- scheinlichkeit für A 3 gegeben B dem Wert 1, während sich die bedingten Wahrscheinlich- keiten für A 1 und A 2 dem Wert 0 annähern. Unabhängig von den Werten für p 1, p 2 und p 3 hat man:
Grundbegriffe der (deskriptiven) Statistikder Wahrscheinlichkeitstheorie
Verteilungsfunktion Beispiel Würfel
Verteilungsfunktion Beispiel n-facher Münzwurf
Verteilungsfunktion der Normalverteilung I
Verteilungsfunktion der Normalverteilung II
Verteilungsfunktion Beispiel Haushaltsgröße
Häufigkeitstabelle für das Jahr 1980 (laut Schlittgen) Verteilungsfunktion
Zufallsvariablen Verteilung Verteilungsfunktion Wahrscheinlichkeitsfunktion Dichtefunktion Verteilung Die Verteilung einer ZV ist ein Wahrscheinlichkeitsmaß auf den reellen Zahlen diskret stetig
diskret f nennt man Wahrscheinlichkeitsfunktion von X
stetig f nennt man Dichtefunktion von X
Verteilungsfunktion diskret stetig
diskret stetig
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz
Die Binomialverteilung
Erwartungswert Varianz
Gegeben seien n Zufallsvariablen Dann gilt immer: Wenn gilt dann hat man auch Gleichheit von Bienaymé
Der diskrete unendliche Fall Dabei nehmen wir an, dass Erwartungswert Varianz Erwartungswert und Varianz II
Die Poisson-Verteilung
Erwartungswert Varianz
Der stetige Fall f ist die Wahrscheinlichkeitsdichte. Dabei nehmen wir an, dass Erwartungswert und Varianz III
Erwartungswert Varianz
Die Gauß- oder Normalverteilung
Achtung Aufgabe!
Achtung noch eine
Dichte Verteilung Verteilungsfunktion
Erwartungswert Varianz
Die hypergeometrische Verteilung Notation
Erwartungswert Varianz
Die geometrische Verteilung Man erhält eine Wahrscheinlichkeitsverteilung, weil gilt:
Erwartungswert Varianz
Die Exponential-Verteilung
Dichte Verteilung Verteilungsfunktion
Erwartungswert Varianz
Beispiele Poisson-verteilter Zufallsvariablen Anzahl der pro Zeiteinheit abgestrahlten Teilchen eines radioaktiven Präparats Anzahl der pro Zeiteinheit an einer Tankstelle tankenden PKW Anzahl der Sechser pro Ausspielung im Lotto Anzahl der pro Jahr von einer Versicherung zu regulierenden Schadensfälle Anzahl der innerhalbeines Tages geborenen Kinder
Brösel Bäckerei Brösel X : Anzahl der Kunden in der Bäckerei Brösel zwischen 7.00 Uhr und 7.15 Uhr n : Anzahl der betrachteten Haushalte Annahmen Die Wahrscheinlichkeit p, dass ein Haushalt zu der Zeit bei Brösel einkauft, ist bei allen Haushalten gleich Die Haushalte entscheiden unabhängig voneinander, ob sie bei Brösel einkaufen oder nicht
Dann gilt: d. h.
Nun wird die Anzahl n der betrachteten Haushalte vergrößert. Die Einkaufswahrscheinlichkeit p hänge dabei so von n ab, dass gilt: Dann konvergiert die Verteilung von X gegen eine Poisson- Verteilung. Genauer: Man hat im Limes n gegen unendlich
Der Zentrale Grenzwertsatz
Achtung Aufgabe!
Tafel für die Verteilungsfunktion bei Normalverteilung
Achtung Aufgabe! noch eine
Beispiel Äpfeln Gewicht von Äpfeln Gewicht von Äpfeln der Sorte Cox-Orange aus einem bestimmten italienischen Anbaugebiet Schätzer von
Wichtige Eigenschaft der Normalverteilung Für unabhängige normalverteilte Zufallsvariablen X und Y hat man
4. Markov-Ketten 4.1. Übergangsmatrizen 4.2. Grenzverhalten irreduzibler Markov-Ketten 4.3. Gewinnwahrscheinlichkeiten 4.4. Beispiel Ruin der Spieler 4.5. Anwendungen
Endliche Markov-Ketten Der Aktienkurs der ZB-Aktie zeige das folgende etwas merkwürdige Verhalten: - Wenn der Kurs heute gegenüber gestern gestiegen ist, dann steigt er morgen ebenfalls mit der Wahr- scheinlichkeit 2/3 und fällt morgen mit der Wahr- scheinlichkeit 1/3 (gegenüber heute). - Ist jedoch der Kurs heute gegenüber gestern gefallen, dann fällt er morgen ebenfalls mit der Wahr- scheinlichkeit 3/4 und steigt morgen mit der Wahr- scheinlichkeit 1/4 (gegenüber heute).
Wir versehen jeden Tag mit einem Plus (+) oder mit einem Minus (-) je nachdem, ob der Kurs an diesem Tag gegenüber dem Vortag gestiegen oder gefallen ist. Dann hängt die Prognose dafür, ob der Kurs morgen gegenüber heute steigt oder fällt, nur davon ab, ob die Aktie heute mit einem + oder mit einem – versehen ist /3 1/3 1/4 3/4
+ - 1/3 1/4
Problem 1 Problem 1: Wie groß ist die Wahrscheinlichkeit, in 10 Tagen einen Minus-Tag zu haben, wenn heute ein Plus-Tag ist? Problem 2 Problem 2: Wie entwickelt sich die Wahrscheinlichkeit, in n Tagen einen Minus-Tag zu haben, wenn heute ein Plus-Tag ist, für großes n? Strebt diese Wahrscheinlichkeit für n gegen einen festen Wert? Was passiert, wenn man von einem Minus-Tag aus startet?
Das stochastische Verhalten einer Markov-Kette wird vollständig bestimmt durch Übergangsmatrix - die Übergangsmatrix P und Anfangsvektor - den Anfangsvektor π Die Eingänge der nten Potenz der Übergangsmatrix sind die Übergangswahrscheinlichkeiten in n Schritten.
Berechnung der nten Potenz von P mit Mitteln Linearen Algebra der Linearen Algebra (Eigenwerte und Eigenvektoren).
/4 1/2 3/4 1/2 1
Grenzverhalten von Markov-Ketten irreduzibel Falls die Markov-Kette irreduzibel ist (d. h. es gibt eine Zahl N, so dass jeder Zustand von jedem Zustand aus in N Schritten erreichbar ist): Die Wahrscheinlichkeiten in n Schritten vom Zustand i aus zum Zustand j zu gelangen konvergieren für n gegen eine von i unabhängigen Wert α j. Der Vektor α ist der einzige Wahrscheinlichkeitsvektor, der der Gleichung α P = α genügt.
Die Maus in der Wohnung! Sie geht jeweils von einem Zimmer zu einem zufälligen Nachbarzimmer. Wie groß ist ihre Gewinnchance ? 5 4 KATZE Verlustzustand 1 MAUS Startzustand 2 3 KÄSE Gewinnzustand (Vorlesung Prof. Bandt)
Mittelwertsregel für Gewinnwahrscheinlichkeiten g i : Wahrscheinlichkeit zu gewinnen, wenn man von i aus startet g i = p ij g j j = 1 k Mittelwertsregel
/2 1/3 1/2 1/3
m-1 p p p p q q q q m Zwei Spieler A und B Kapital von A: a Kapital von B: b Gesamtkapital: m = a + b Gewinnwahrscheinlichkeiten Berechnung der Gewinnwahrscheinlichkeiten für A und für B
p p p p q q q q q m Ruin des Spielers Ruin-Wahrscheinlichkeit Berechnung der Ruin-Wahrscheinlichkeit für A
Erneuerung von Geräten (Kartenhaus-Prozess) N
Berechnung der Erneuerungswahrscheinlichkeit für n Erneuerungssatz