Kapitel 6 Mehrstufige Zufallsexperimente

Slides:



Advertisements
Ähnliche Präsentationen
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Advertisements

Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Stochastik und Markovketten
Die Laufzeit von randomisierten (zufallsgesteuerten) Algorithmen hängt von gewissen zufälligen Ereignissen ab (Beispiel Quicksort). Um die Laufzeiten dieser.
Polynomial Root Isolation
Kapitel 5 Wahrscheinlichkeit
Wiederholung TexPoint fonts used in EMF.
Prof. Dr. W. Conen 15. November 2004
Leitidee Zufall Montag, den 14. Januar Uhr
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-23.
Glücksspiele.
Algorithmentheorie 04 –Hashing
Kapitel 5 Stetigkeit.
Kapitel 1 Das Schubfachprinzip
Kapitel 1 Die natürlichen und die ganze Zahlen. Kapitel 1: Die natürlichen und die ganzen Zahlen © Beutelspacher/Zschiegner April 2005 Seite 2 Inhalt.
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Kapitel 2 Die rationalen und die irrationalen Zahlen.
Kapitel 4 Geometrische Abbildungen
Tricks mit Zahlen. Kapitel 2 © Beutelspacher Mai 2004 Seite 2 Idee / Aufgaben In jeder Woche stelle ich Ihnen einen Zaubertrick mit Zahlen vor. Ihre Aufgaben:
Zählen, ohne zu zählen.
Wahrscheinlichkeitstheorie
Statistische Methoden I
Allgemein definiert man:. Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt.
Zeit: 14:15 Ort: Hörsaal Loefflerstraße Heute wird die Vorlesung vom vergangenen Freitag nachgeholt! im Anschluss an die heutige reguläre Vorlesung.
Wahrscheinlichkeitsräume. A. N. Kolmogorov Kolmogorov wurde (mehr zufällig, seine Mutter war auf der Durchreise) in Tambov, Russland, geboren.
Urnenmodelle. Wahrscheinlichkeitsräume A. N. Kolmogorov Kolmogorov wurde (mehr zufällig, seine Mutter war auf der Durchreise) in Tambov,
Urnenmodelle. Die Normalverteilung (Gauß-Verteilung) (Gaußsche Glockenkurve)
Bedingte Wahrscheinlichkeiten
Statistische Methoden I WS 2002/2003 Probeklausur Freitag, 13. Dezember statt Vorlesung - Nächsten Freitag!!!
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Übungen zur Vorlesung Stochastik und ihre Didaktik
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Wahrscheinlichkeitsrechnung
Wahrscheinlichkeits-rechnung
1.3. Kombinatorische Zählprobleme Zählstrategien
Wahrscheinlichkeitsrechnung Grundbegriffe
§24 Affine Koordinatensysteme
Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Information und Kommunikation
Definitionen für Wahrscheinlichkeiten
Wahrscheinlichkeit Zufallsexperiment:
STATISIK LV Nr.: 0028 SS Mai 2005.
Wahrscheinlichkeitsrechnung
WIR SPIELEN STATISTIKER Unterhaltung mit der Wahrscheinlichkeit
Wahrscheinlichkeitsrechnung
Referat über das Thema STOCHASTIK.
Erklärung der „Lottoformel“ P =
Die Wahrscheinlichkeit
CRAPS altes englisches Glücksspiel mit zwei Würfeln
Grundbegriffe der Stochastik
Paris Beim Glücksspiel
1 (C) 2002, Hermann Knoll, HTW Chur, Fachhochschule Ostschweiz Wahrscheinlichkeitsverteilung Lernziele: Wahrscheinlichkeitsverteilung und der Wahrscheinlichkeitsdichte.
teWT303: Bedingte Wahrscheinlichkeit
1. 2. Berechnen von Wahrscheinlichkeiten
Der Zentralwert.
ENDLICHE KÖRPER RSA – VERFAHREN.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Stochastik Grundlagen
Aufgaben zu Laplace-Wahrscheinlichkeiten
Weitere acht Aufgaben zu Laplace-Wahrscheinlichkeiten
Wahrscheinlichkeitsrechnung Übersicht
Vermischte Aufgaben zur Wiederholung Löse die Aufgaben sauber auf einem Blatt Papier oder im Schulheft. Und nun geht’s los!
Welche möglichen Ergebnisse gibt es beim Würfeln mit einem Würfel?
Weitere acht Aufgaben zu Laplace-Wahrscheinlichkeiten
Einführung in die Wahrscheinlichkeitsrechnung
Mittel- und Erwartungswert
Mehrstufige Zufallsexperimente
Wahrscheinlichkeitsrechnung Stochastische Unabhängigkeit Ex
 Präsentation transkript:

Kapitel 6 Mehrstufige Zufallsexperimente

Inhalt 6.1 Mehrstufige Experimente 6.2 Bedingte Wahrscheinlichkeiten

6.1 Mehrstufige Experimente Grundvorstellung: Viele Experimente werden der Reihe nach (in Stufen) ausgeführt. Dabei können die Experimente einer Stufe von den Experimente der vorigen Stufen abhängen oder nicht. Grundmodellierung: W = W1  W2  W3  ...  Wn, dabei ist Wi die Ergebnismenge der i-ten Stufe.

Beispiel In einer Urne seien eine rote und drei blaue Kugeln enthalten. Man zieht zufällig eine der Kugeln und legt dann diese und eine weitere Kugel der gezogenen Farbe in die Urne zurück. Nun zieht man ein zweites Mal. Wie groß ist die Wahrscheinlichkeit, jetzt eine rote Kugel zu ziehen? Modellierung: W = W1  W2 mit W1 = W2 = {r, b}. Das Ereignis „beim zweiten Mal eine rote Kugel“ ist A = {(r , r), (b , r)}.

Bestimmung der Wahrscheinlichkeiten Frage: Was ist p(w) für w = (a1, a2)  A? 1. Stufe: Die Wahrscheinlichkeit für r ist ¼, die für b ist ¾. 2. Stufe: Im Fall a1 = r enthält die Urne vor dem zweiten Ziehen 2 rote und 3 blaue Kugeln. Also ist die Wahrscheinlichkeit für rot = 2/5. Im Fall a1 = b enthält die Urne vor dem zweiten Ziehen 1 rote und 4 blaue Kugeln. Also ist die Wahrscheinlichkeit für rot = 1/5.

Übergangswahrscheinlichkeiten Daraus ergibt sich p(r, r) = 1/42/5 = 2/20, p(r, b) = 1/4 3/5 = 3/20, p(b, r) = 3/41/5 = 3/20, p(b, b) = 3/4 4/5 = 12/20. Erster Faktor: Wahrscheinlichkeit für das erste Experiment Zweiter Faktor: Wahrscheinlichkeit für den Ausgang des zweiten Experiments aufgrund des Ausgangs des ersten Experiments Diese „zweiten Faktoren“ heißen Übergangswahrscheinlichkeiten. Es ergibt sich: P(A) = p(r, r) + p(b, r) = 2/20 + 3/20 = ¼.

Baumdiagramm Start 1/4 3/4 r b 1/5 2/5 3/5 4/5 r b r b 2/20 3/20 3/20 12/20

Pfadregeln An jeder Verbindung findet man die entsprechende Übergangswahrscheinlichkeit. 1. Pfadregel (Multiplikationsregel): Um die Wahrscheinlichkeit eines Elementarereignisses w zu erhalten, multipliziert man die Wahrscheinlichkeiten auf dem Pfad zu w. 2. Pfadregel (Additionsregel): Um die Wahrscheinlichkeit eines Ereignisses A zu erhalten, addiert man die Wahrscheinlichkeiten aller Ereignisse w  A.

Formalisierung 1. Startverteilung: Es gibt Wahrscheinlichkeiten p1(ai), ai  W1 mit p1(a1) + p1(a2) + ... = 1. 2. Für alle ai  W1 gibt es Übergangswahrscheinlichkeiten p2(bj  ai), bj  W2 mit p2(b1  ai) + p2(b2  ai) + ... = 1. 3. Für alle ai  W1, bj  W2 gibt es Übergangswahrscheinlichkeiten p3(ck  ai, bj), ck  W3 mit p3(c1  ai, bj) + p3(c2  ai, bj) + ... = 1. Usw. 1. Pfadregel: Für w = (ai, bj, ck, ...) gilt p(w) = p1(ai)  p2(bj  ai)  p3(ck  ai, bj)  ...

p(w) = p1(ai)  p2(bj  ai)  p3(ck  ai, bj)  ... Produktexperimente Idee: Das j-te Experiment wird „unabhängig“ von den ersten j–1 Experimenten durchgeführt. Vorstellung: (a) Experimente räumlich und zeitlich getrennt. (b) Experimente gleichzeitig. Beispiel: Mehrfaches Würfeln Mathematische Beschreibung: Für w = (ai, bj, ck, ...) gilt p(w) = p1(ai)  p2(bj  ai)  p3(ck  ai, bj)  ...

6.2 Bedingte Wahrscheinlichkeiten Idee: Verwertung von Teilinformationen, „Lernen aus Erfahrung“ In der Regel: Wahrscheinlichkeit eines Ereignisses, das feststeht – das wir aber nicht kennen.

Beispiele 1, 2 Beispiel 1. In einer Urne sind zwei rote, zwei schwarze und zwei blaue Kugeln. Eine Person zieht zufällig Kugeln (ohne Zurücklegen). Sie teilt einer anderen Person (per Telefon) mit, wann sie zum ersten Mal eine blaue Kugel zieht. Angenommen, das ist beim dritten Mal. Wie groß ist die Wahrscheinlichkeit, dass die ersten beiden Kugeln rot waren? Beispiel 2. „Ziegenproblem“: Der Kandidat zeigt auf Tür 1, der Moderator öffnet Tür 3 (Ziegentür). Wie groß ist die Wahrscheinlichkeit, dass Tür 2 die Autotür ist?

Beispiel 3 Beispiel 3. Weit entfernt werden zwei Würfel geworfen. Per Telefon erhalten wir die Nachricht „Augensumme mindestens 8“. Wie groß ist die Wahrscheinlichkeit, dass mindestens einer der Würfel eine Sechs zeigt? Bemerkung: Bei allen Experimenten geht es um die Wahrscheinlichkeit eines Ereignisses, das feststeht – aber uns unbekannt ist.

Erste mathematische Modellierung Wir betrachten ein Zufallsexperiment w. Wir wissen nur, dass ein Ereignis B  W eingetreten ist, dass also w  B ist. Ziel: Bestimmung der Wahrscheinlichkeit für das Eintreten eines Ereignisses A  W unter der Bedingung B. Wir schreiben dafür P(AB).

Motivation durch relative Häufigkeiten Man könnte sich vorstellen, den Wert P(AB) dadurch anzunähren, dass man viele Versuche durchführt: rn(AB) = (Anzahl der Versuche, in denen A und B eintritt) : (Anzahl der Versuche, bei denen B eintritt) Anders geschrieben: rn(AB) = rn(A  B) / rn(B).

Definition Definition. Sei (W, P) ein Wahrscheinlichkeitsraum, und seien A, B  W Ereignisse mit P(B) > 0. Dann heißt P(AB) = P(A  B) / P(B) die bedingte Wahrscheinlichkeit von A unter der Bedingung (Hypothese) B. Schreibweise: PB(A) = P(AB)

Einfache Eigenschaften 6.2.1 Hilfssatz. (a) 0  PB(A)  1 für alle A  W. (b) PB(W) = PB(B) = 1. (c) PB(A1  A2) = PB(A1) + PB(A2), falls A1, A2 disjunkte Ereignisse sind. Beweis. (a) Wegen A  B  B ist P(A  B)  P(B), also P(AB) = P(A  B) / P(B)  1. (c) PB(A1A2) = P((A1A2)  B) / P(B) = P((A1B)  (A2B)) / P(B) = [P(A1B) + P(A2B)] / P(B) = P(A1B) / P(B) + P(A2B) / P(B) = PB(A1) + PB(A2). 

Spezialfall Für w  W gilt pB(w) = p(w)  P(B)–1, falls w  B pB(w) = 0 sonst. D.h. man stellt sich vor, dass für alle w W die Wahrscheinlichkeit p(w) um den Faktor P(B) –1 vergrößert wird, und sonst = 0 gesetzt wird.

Lösung 1. Beispiel Wir nummerieren die Kugeln mit 1, 2, 3, 4, 5, 6 durch, wobei 1, 2: rot, 3, 4: blau, 5, 6: schwarz. Wir betrachten die Ereignisse A = {(a1, a2, a3)  {a1, a2} = {1,2}} („die beiden ersten Kugeln sind rot“) B = {(a1, a2, a3)  a3  {3,4}, a1, a2  {1,2,5,6}} („beim dritten Wurf zum ersten Mal eine blaue Kugel“). Wir interessieren uns für P(AB).

Lösung 1. Beispiel Es gilt

Das Ziegenproblem Wir modellieren das Ziegenproblem wie folgt: Sei W = {1,2,3}  {1,2,3}  {1,2,3}. Ein Element w = (a1, a2, a3)  W interpretieren wir so: a1 ist die Nummer der Autotüre, a2 die Nummer der vom Kandidaten gewählten Tür, a3 die vom Moderator geöffnete Tür. Für die Wahrscheinlichkeiten nehmen wir an: p1(j) = 1/3, denn das Auto wird zufällig auf eine der Türen verteilt. p2(k  j) = 1/3, denn der Kandidat wählt rein zufällig eine Tür. Es gilt p(w) = p(a1, a2, a3) = p1(a1)  p2(a2  a1)  p3(a3  a1, a2).

Das Ziegenproblem II Wir nehmen an, dass der Moderator im Fall, dass ihm zwei Türen zur Auswahl stehen, zufällig eine der beiden wählt. Das bedeutet: p3(h  j, k) = 1, falls j, k, h die drei Zahlen 1, 2, 3 sind. p3(h  j, k) = 1/2, falls j = k, aber h  j. p3(h  j, k) = 0 in allen anderen Fällen. Das bedeutet p(j, k, h) = 1/9, falls j, k, h die drei Zahlen 1, 2, 3 sind. p(j, k, h) = 1/18, falls j = k, aber h  j. p(j, k, h) = 0 in allen anderen Fällen.

Das Ziegenproblem III: Die Gewinnwahrscheinlichkeiten Schließlich definieren wir: Aj = {(a1, a2, a3)  W  a1 = j} („das Auto ist hinter der Türe j“) Wk = {(a1, a2, a3)  W  a2 = k} („der Kandidat wählt Türe k“) Mh = {(a1, a2, a3)  W  a3 = h} („der Moderator öffnet die Türe h“) Wir interessieren uns zum Beispiel für die Wahrscheinlichkeit P(A2  W1  M3), d.h. die Wahrscheinlichkeit, das Auto hinter Tür 2 zu finden, falls der Kandidat Tür 1 gewählt und der Moderator Tür 3 geöffnet hat (Erfolg der Wechselstrategie).

Das Ziegenproblem IV P(A2  W1  M3) = P(A2  W1  M3) / P(W1  M3) = = p(2, 1, 3) / [p(2, 1, 3) + p(1, 1, 3)] = 1/9 / [1/9 + 1/18] = 2/3. (Beachte, dass W1  M3 = {(2,1,3), (1,1,3)}, da das Ereignis (3,1,3) nicht möglich ist.) Andererseits ist P(A1  W1  M3) = P(A1  W1  M3) / P(W1  M3) = = p(1, 1, 3) / [p(2, 1, 3) + p(1, 1, 3)] = 1/18 / [1/9 + 1/18] = 1/3. Mit anderen Worten: Die Wechselstrategie verdoppelt die Gewinnchancen!

Die Formel von der totalen Wahrscheinlichkeit 6.2.2 Formel von der totalen Wahrscheinlichkeit. Seien A1, A2, …, As Ereignisse, die paarweise disjunkt sind, und für die A1  A2  …  As = W gilt. Dann gilt für jedes Ereignis B: P(B) = P(A1)P(B  A1) + P(A2)P(B  A2) + …+ P(As)P(B  As). Beweis für s = 2. P(B) = P(W  B) = P((A1  A2)  B) = P((A1  B)  (A2  B)) = P(A1  B) + P(A2  B) = P(A1)P(B  A1) + P(A2)P(B  A2). 

P(A  B) = P(A)  P(B  A) / P(B). Die Formel von Bayes 6.2.3 Formel von Bayes (Thomas Bayes 1702-1761). Seien P(A) > 0, P(B) > 0. Dann gilt: P(A  B) = P(A)  P(B  A) / P(B). Beweis. Da P(A) > 0 und P(B) > 0, existieren die bedingten Wahrscheinlichkeiten P(B  A) und P(A  B), und nach Definition gelten: P(A  B) = P(A B)  P(B) und P(A  B) = P(B  A)  P(A). Zusammen folgt P(A B)  P(B) = P(A  B) = P(B  A)  P(A). 

Das Simpson-Paradox Vor einigen Jahren trat an der University of Berkeley in Kalifornien folgendes Phänomen auf: - Unter je 1000 Bewerbern wurde weniger Frauen als Männer zugelassen, - in jedem Fach wurden Frauen gegenüber Männern prozentual bevorzugt.

Simpson-Paradox: Beispiel Wir machen uns das an einem Beispiel klar. Die Universität möge nur zwei Fächer haben. Männer Frauen Bewerber zugelassen Bewerberinnen zugelassen Fach 1 900 720 (80%) 200 180 (90%) Fach 2 100 20 (20%) 800 240 (30%) Summe 1000 740 1000 420

Stochastische Unabhängigkeit Wir wollen ausdrücken, dass das Eintreten eines Ereignisses B keinen Einfluss auf das Eintreten eines Ereignisses A hat. Definition. Seien A und B Ereignisse. Wir nennen diese stochastisch unabhängig, wenn P(A) = P(A  B) gilt. Beobachtung: P(A) = P(A  B)  P(A B) = P(A)P(B)  P(B) = P(B  A). (Beweis: P(A) = P(A  B)  P(A) = P(A  B) / P(B)  P(A)  P(B) = P(A  B)  P(B) = P(A  B) / P(A)  P(B) = P(B  A).)

Beispiele 1. Würfeln mit einem Würfel: A = {2,3}, B = {2,4,6}. P(A) = 2/6 = 1/3, P(B) = 3/6 = 1/2, P(A  B) = 1/6. 2. Zweimaliges Würfeln. A = Augensumme ist gerade, B = der erste Wurf hat eine gerade Augenzahl P(A) = 1/2, P(B) = 1/2, P(A  B) = ¼.

Komplementäre Ereignisse 6.2.4 Hilfssatz. Seien A und B unabhängige Ereignisse. Dann sind auch A und B (= W \ B) unabhängig. Beweis. Es gilt P(A  B) = P(A \ (A  B)) = P(A) – P(A  B) = P(A) – P(A)  P(B) = P(A)  (1 – P(B)) = P(A)  P(B). 

Verallgemeinerung der Definition Definition. Drei Ereignisse A, B, C werden stochastisch unabhängig genannt, wenn folgende Gleichungen gelten: P(A)  P(B) = P(A  B), P(B)  P(C) = P(B  C), P(A)  P(C) = P(A  C), P(A)  P(B)  P(C) = P(A  B  C). Entsprechend: Verallgemeinerung auf vier, fünf, … Ereignisse.

Beispiel Viermaliger Münzwurf. A = Kopf im ersten Wurf B = Kopf im zweiten Wurf C = Kopf im dritten Wurf P(A) = P(B) = P(C) = 1/2. P(A  B) = P(B  C) = P(A  C) = 1/4. P(A  B  C) = 1/8.