Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Kapitel 6 Mehrstufige Zufallsexperimente. Kapitel 6 © Beutelspacher Januar 2005 Seite 2 Inhalt 6.1 Mehrstufige Experimente 6.2 Bedingte Wahrscheinlichkeiten.

Ähnliche Präsentationen


Präsentation zum Thema: "Kapitel 6 Mehrstufige Zufallsexperimente. Kapitel 6 © Beutelspacher Januar 2005 Seite 2 Inhalt 6.1 Mehrstufige Experimente 6.2 Bedingte Wahrscheinlichkeiten."—  Präsentation transkript:

1 Kapitel 6 Mehrstufige Zufallsexperimente

2 Kapitel 6 © Beutelspacher Januar 2005 Seite 2 Inhalt 6.1 Mehrstufige Experimente 6.2 Bedingte Wahrscheinlichkeiten 6.1 Mehrstufige Experimente 6.2 Bedingte Wahrscheinlichkeiten

3 Kapitel 6 © Beutelspacher Januar 2005 Seite Mehrstufige Experimente Grundvorstellung: Viele Experimente werden der Reihe nach (in Stufen) ausgeführt. Dabei können die Experimente einer Stufe von den Experimente der vorigen Stufen abhängen oder nicht. Grundmodellierung: = n, dabei ist i die Ergebnismenge der i-ten Stufe. Grundvorstellung: Viele Experimente werden der Reihe nach (in Stufen) ausgeführt. Dabei können die Experimente einer Stufe von den Experimente der vorigen Stufen abhängen oder nicht. Grundmodellierung: = n, dabei ist i die Ergebnismenge der i-ten Stufe.

4 Kapitel 6 © Beutelspacher Januar 2005 Seite 4 Beispiel In einer Urne seien eine rote und drei blaue Kugeln enthalten. Man zieht zufällig eine der Kugeln und legt dann diese und eine weitere Kugel der gezogenen Farbe in die Urne zurück. Nun zieht man ein zweites Mal. Wie groß ist die Wahrscheinlichkeit, jetzt eine rote Kugel zu ziehen? Modellierung: = 1 2 mit 1 = 2 = {r, b}. Das Ereignis beim zweiten Mal eine rote Kugel ist A = {(r, r), (b, r)}. In einer Urne seien eine rote und drei blaue Kugeln enthalten. Man zieht zufällig eine der Kugeln und legt dann diese und eine weitere Kugel der gezogenen Farbe in die Urne zurück. Nun zieht man ein zweites Mal. Wie groß ist die Wahrscheinlichkeit, jetzt eine rote Kugel zu ziehen? Modellierung: = 1 2 mit 1 = 2 = {r, b}. Das Ereignis beim zweiten Mal eine rote Kugel ist A = {(r, r), (b, r)}.

5 Kapitel 6 © Beutelspacher Januar 2005 Seite 5 Bestimmung der Wahrscheinlichkeiten Frage: Was ist p( ) für = (a 1, a 2 ) A? 1. Stufe: Die Wahrscheinlichkeit für r ist ¼, die für b ist ¾. 2. Stufe: Im Fall a 1 = r enthält die Urne vor dem zweiten Ziehen 2 rote und 3 blaue Kugeln. Also ist die Wahrscheinlichkeit für rot = 2/5. Im Fall a 1 = b enthält die Urne vor dem zweiten Ziehen 1 rote und 4 blaue Kugeln. Also ist die Wahrscheinlichkeit für rot = 1/5. Frage: Was ist p( ) für = (a 1, a 2 ) A? 1. Stufe: Die Wahrscheinlichkeit für r ist ¼, die für b ist ¾. 2. Stufe: Im Fall a 1 = r enthält die Urne vor dem zweiten Ziehen 2 rote und 3 blaue Kugeln. Also ist die Wahrscheinlichkeit für rot = 2/5. Im Fall a 1 = b enthält die Urne vor dem zweiten Ziehen 1 rote und 4 blaue Kugeln. Also ist die Wahrscheinlichkeit für rot = 1/5.

6 Kapitel 6 © Beutelspacher Januar 2005 Seite 6 Übergangswahrscheinlichkeiten Daraus ergibt sich p(r, r) = 1/4 2/5 = 2/20, p(r, b) = 1/4 3/5 = 3/20, p(b, r) = 3/4 1/5 = 3/20, p(b, b) = 3/4 4/5 = 12/20. Erster Faktor: Wahrscheinlichkeit für das erste Experiment Zweiter Faktor: Wahrscheinlichkeit für den Ausgang des zweiten Experiments aufgrund des Ausgangs des ersten Experiments Diese zweiten Faktoren heißen Übergangswahrscheinlichkeiten. Es ergibt sich: P(A) = p(r, r) + p(b, r) = 2/20 + 3/20 = ¼. Daraus ergibt sich p(r, r) = 1/4 2/5 = 2/20, p(r, b) = 1/4 3/5 = 3/20, p(b, r) = 3/4 1/5 = 3/20, p(b, b) = 3/4 4/5 = 12/20. Erster Faktor: Wahrscheinlichkeit für das erste Experiment Zweiter Faktor: Wahrscheinlichkeit für den Ausgang des zweiten Experiments aufgrund des Ausgangs des ersten Experiments Diese zweiten Faktoren heißen Übergangswahrscheinlichkeiten. Es ergibt sich: P(A) = p(r, r) + p(b, r) = 2/20 + 3/20 = ¼.

7 Kapitel 6 © Beutelspacher Januar 2005 Seite 7 Baumdiagramm rb rbrb Start 1/4 3/4 2/53/5 1/5 4/5 2/203/20 12/20

8 Kapitel 6 © Beutelspacher Januar 2005 Seite 8 Pfadregeln An jeder Verbindung findet man die entsprechende Übergangswahrscheinlichkeit. 1. Pfadregel (Multiplikationsregel): Um die Wahrscheinlichkeit eines Elementarereignisses zu erhalten, multipliziert man die Wahrscheinlichkeiten auf dem Pfad zu. 2. Pfadregel (Additionsregel): Um die Wahrscheinlichkeit eines Ereignisses A zu erhalten, addiert man die Wahrscheinlichkeiten aller Ereignisse A. An jeder Verbindung findet man die entsprechende Übergangswahrscheinlichkeit. 1. Pfadregel (Multiplikationsregel): Um die Wahrscheinlichkeit eines Elementarereignisses zu erhalten, multipliziert man die Wahrscheinlichkeiten auf dem Pfad zu. 2. Pfadregel (Additionsregel): Um die Wahrscheinlichkeit eines Ereignisses A zu erhalten, addiert man die Wahrscheinlichkeiten aller Ereignisse A.

9 Kapitel 6 © Beutelspacher Januar 2005 Seite 9 Formalisierung 1. Startverteilung: Es gibt Wahrscheinlichkeiten p 1 (a i ), a i 1 mit p 1 (a 1 ) + p 1 (a 2 ) +... = Für alle a i 1 gibt es Übergangswahrscheinlichkeiten p 2 (b j a i ), b j 2 mit p 2 (b 1 a i ) + p 2 (b 2 a i ) +... = Für alle a i 1, b j 2 gibt es Übergangswahrscheinlichkeiten p 3 (c k a i, b j ), c k 3 mit p 3 (c 1 a i, b j ) + p 3 (c 2 a i, b j ) +... = 1. Usw. 1. Pfadregel: Für = (a i, b j, c k,...) gilt p( ) = p 1 (a i ) p 2 (b j a i ) p 3 (c k a i, b j ) Startverteilung: Es gibt Wahrscheinlichkeiten p 1 (a i ), a i 1 mit p 1 (a 1 ) + p 1 (a 2 ) +... = Für alle a i 1 gibt es Übergangswahrscheinlichkeiten p 2 (b j a i ), b j 2 mit p 2 (b 1 a i ) + p 2 (b 2 a i ) +... = Für alle a i 1, b j 2 gibt es Übergangswahrscheinlichkeiten p 3 (c k a i, b j ), c k 3 mit p 3 (c 1 a i, b j ) + p 3 (c 2 a i, b j ) +... = 1. Usw. 1. Pfadregel: Für = (a i, b j, c k,...) gilt p( ) = p 1 (a i ) p 2 (b j a i ) p 3 (c k a i, b j )...

10 Kapitel 6 © Beutelspacher Januar 2005 Seite 10 Produktexperimente Idee: Das j-te Experiment wird unabhängig von den ersten j–1 Experimenten durchgeführt. Vorstellung: (a) Experimente räumlich und zeitlich getrennt. (b) Experimente gleichzeitig. Beispiel: Mehrfaches Würfeln Mathematische Beschreibung: Für = (a i, b j, c k,...) gilt p( ) = p 1 (a i ) p 2 (b j a i ) p 3 (c k a i, b j )... Idee: Das j-te Experiment wird unabhängig von den ersten j–1 Experimenten durchgeführt. Vorstellung: (a) Experimente räumlich und zeitlich getrennt. (b) Experimente gleichzeitig. Beispiel: Mehrfaches Würfeln Mathematische Beschreibung: Für = (a i, b j, c k,...) gilt p( ) = p 1 (a i ) p 2 (b j a i ) p 3 (c k a i, b j )...

11 Kapitel 6 © Beutelspacher Januar 2005 Seite Bedingte Wahrscheinlichkeiten Idee: Verwertung von Teilinformationen, Lernen aus Erfahrung In der Regel: Wahrscheinlichkeit eines Ereignisses, das feststeht – das wir aber nicht kennen. Idee: Verwertung von Teilinformationen, Lernen aus Erfahrung In der Regel: Wahrscheinlichkeit eines Ereignisses, das feststeht – das wir aber nicht kennen.

12 Kapitel 6 © Beutelspacher Januar 2005 Seite 12 Beispiele 1, 2 Beispiel 1. In einer Urne sind zwei rote, zwei schwarze und zwei blaue Kugeln. Eine Person zieht zufällig Kugeln (ohne Zurücklegen). Sie teilt einer anderen Person (per Telefon) mit, wann sie zum ersten Mal eine blaue Kugel zieht. Angenommen, das ist beim dritten Mal. Wie groß ist die Wahrscheinlichkeit, dass die ersten beiden Kugeln rot waren? Beispiel 2. Ziegenproblem: Der Kandidat zeigt auf Tür 1, der Moderator öffnet Tür 3 (Ziegentür). Wie groß ist die Wahrscheinlichkeit, dass Tür 2 die Autotür ist? Beispiel 1. In einer Urne sind zwei rote, zwei schwarze und zwei blaue Kugeln. Eine Person zieht zufällig Kugeln (ohne Zurücklegen). Sie teilt einer anderen Person (per Telefon) mit, wann sie zum ersten Mal eine blaue Kugel zieht. Angenommen, das ist beim dritten Mal. Wie groß ist die Wahrscheinlichkeit, dass die ersten beiden Kugeln rot waren? Beispiel 2. Ziegenproblem: Der Kandidat zeigt auf Tür 1, der Moderator öffnet Tür 3 (Ziegentür). Wie groß ist die Wahrscheinlichkeit, dass Tür 2 die Autotür ist?

13 Kapitel 6 © Beutelspacher Januar 2005 Seite 13 Beispiel 3 Beispiel 3. Weit entfernt werden zwei Würfel geworfen. Per Telefon erhalten wir die Nachricht Augensumme mindestens 8. Wie groß ist die Wahrscheinlichkeit, dass mindestens einer der Würfel eine Sechs zeigt? Bemerkung: Bei allen Experimenten geht es um die Wahrscheinlichkeit eines Ereignisses, das feststeht – aber uns unbekannt ist. Beispiel 3. Weit entfernt werden zwei Würfel geworfen. Per Telefon erhalten wir die Nachricht Augensumme mindestens 8. Wie groß ist die Wahrscheinlichkeit, dass mindestens einer der Würfel eine Sechs zeigt? Bemerkung: Bei allen Experimenten geht es um die Wahrscheinlichkeit eines Ereignisses, das feststeht – aber uns unbekannt ist.

14 Kapitel 6 © Beutelspacher Januar 2005 Seite 14 Erste mathematische Modellierung Wir betrachten ein Zufallsexperiment. Wir wissen nur, dass ein Ereignis B eingetreten ist, dass also B ist. Ziel: Bestimmung der Wahrscheinlichkeit für das Eintreten eines Ereignisses A unter der Bedingung B. Wir schreiben dafür P(A B). Wir betrachten ein Zufallsexperiment. Wir wissen nur, dass ein Ereignis B eingetreten ist, dass also B ist. Ziel: Bestimmung der Wahrscheinlichkeit für das Eintreten eines Ereignisses A unter der Bedingung B. Wir schreiben dafür P(A B).

15 Kapitel 6 © Beutelspacher Januar 2005 Seite 15 Motivation durch relative Häufigkeiten Man könnte sich vorstellen, den Wert P(A B) dadurch anzunähren, dass man viele Versuche durchführt: r n (A B) = (Anzahl der Versuche, in denen A und B eintritt) : (Anzahl der Versuche, bei denen B eintritt) Anders geschrieben: r n (A B) = r n (A B) / r n (B). Man könnte sich vorstellen, den Wert P(A B) dadurch anzunähren, dass man viele Versuche durchführt: r n (A B) = (Anzahl der Versuche, in denen A und B eintritt) : (Anzahl der Versuche, bei denen B eintritt) Anders geschrieben: r n (A B) = r n (A B) / r n (B).

16 Kapitel 6 © Beutelspacher Januar 2005 Seite 16 Definition Definition. Sei (, P) ein Wahrscheinlichkeitsraum, und seien A, B Ereignisse mit P(B) > 0. Dann heißt P(A B) = P(A B) / P(B) die bedingte Wahrscheinlichkeit von A unter der Bedingung (Hypothese) B. Schreibweise: P B (A) = P(A B) Definition. Sei (, P) ein Wahrscheinlichkeitsraum, und seien A, B Ereignisse mit P(B) > 0. Dann heißt P(A B) = P(A B) / P(B) die bedingte Wahrscheinlichkeit von A unter der Bedingung (Hypothese) B. Schreibweise: P B (A) = P(A B)

17 Kapitel 6 © Beutelspacher Januar 2005 Seite 17 Einfache Eigenschaften Hilfssatz. (a) 0 P B (A) 1 für alle A. (b) P B ( ) = P B (B) = 1. (c) P B (A 1 A 2 ) = P B (A 1 ) + P B (A 2 ), falls A 1, A 2 disjunkte Ereignisse sind. Beweis. (a) Wegen A B B ist P(A B) P(B), also P(A B) = P(A B) / P(B) 1. (c) P B (A 1 A 2 ) = P((A 1 A 2 ) B) / P(B) = P((A 1 B) (A 2 B)) / P(B) = [P(A 1 B) + P(A 2 B)] / P(B) = P(A 1 B) / P(B) + P(A 2 B) / P(B) = P B (A 1 ) + P B (A 2 ) Hilfssatz. (a) 0 P B (A) 1 für alle A. (b) P B ( ) = P B (B) = 1. (c) P B (A 1 A 2 ) = P B (A 1 ) + P B (A 2 ), falls A 1, A 2 disjunkte Ereignisse sind. Beweis. (a) Wegen A B B ist P(A B) P(B), also P(A B) = P(A B) / P(B) 1. (c) P B (A 1 A 2 ) = P((A 1 A 2 ) B) / P(B) = P((A 1 B) (A 2 B)) / P(B) = [P(A 1 B) + P(A 2 B)] / P(B) = P(A 1 B) / P(B) + P(A 2 B) / P(B) = P B (A 1 ) + P B (A 2 ).

18 Kapitel 6 © Beutelspacher Januar 2005 Seite 18 Spezialfall Für gilt p B ( ) = p( ) P(B) –1, falls w B p B ( ) = 0 sonst. D.h. man stellt sich vor, dass für alle die Wahrscheinlichkeit p( ) um den Faktor P(B) –1 vergrößert wird, und sonst = 0 gesetzt wird. Für gilt p B ( ) = p( ) P(B) –1, falls w B p B ( ) = 0 sonst. D.h. man stellt sich vor, dass für alle die Wahrscheinlichkeit p( ) um den Faktor P(B) –1 vergrößert wird, und sonst = 0 gesetzt wird.

19 Kapitel 6 © Beutelspacher Januar 2005 Seite 19 Lösung 1. Beispiel Wir nummerieren die Kugeln mit 1, 2, 3, 4, 5, 6 durch, wobei 1, 2: rot, 3, 4: blau, 5, 6: schwarz. Wir betrachten die Ereignisse A = {(a 1, a 2, a 3 ) {a 1, a 2 } = {1,2}} (die beiden ersten Kugeln sind rot) B = {(a 1, a 2, a 3 ) a 3 {3,4}, a 1, a 2 {1,2,5,6}} (beim dritten Wurf zum ersten Mal eine blaue Kugel). Wir interessieren uns für P(A B). Wir nummerieren die Kugeln mit 1, 2, 3, 4, 5, 6 durch, wobei 1, 2: rot, 3, 4: blau, 5, 6: schwarz. Wir betrachten die Ereignisse A = {(a 1, a 2, a 3 ) {a 1, a 2 } = {1,2}} (die beiden ersten Kugeln sind rot) B = {(a 1, a 2, a 3 ) a 3 {3,4}, a 1, a 2 {1,2,5,6}} (beim dritten Wurf zum ersten Mal eine blaue Kugel). Wir interessieren uns für P(A B).

20 Kapitel 6 © Beutelspacher Januar 2005 Seite 20 Lösung 1. Beispiel Es gilt

21 Kapitel 6 © Beutelspacher Januar 2005 Seite 21 Das Ziegenproblem Wir modellieren das Ziegenproblem wie folgt: Sei = {1,2,3} {1,2,3} {1,2,3}. Ein Element = (a 1, a 2, a 3 ) interpretieren wir so: a 1 ist die Nummer der Autotüre, a 2 die Nummer der vom Kandidaten gewählten Tür, a 3 die vom Moderator geöffnete Tür. Für die Wahrscheinlichkeiten nehmen wir an: p 1 (j) = 1/3, denn das Auto wird zufällig auf eine der Türen verteilt. p 2 (k j) = 1/3, denn der Kandidat wählt rein zufällig eine Tür. Es gilt p( ) = p(a 1, a 2, a 3 ) = p 1 (a 1 ) p 2 (a 2 a 1 ) p 3 (a 3 a 1, a 2 ). Wir modellieren das Ziegenproblem wie folgt: Sei = {1,2,3} {1,2,3} {1,2,3}. Ein Element = (a 1, a 2, a 3 ) interpretieren wir so: a 1 ist die Nummer der Autotüre, a 2 die Nummer der vom Kandidaten gewählten Tür, a 3 die vom Moderator geöffnete Tür. Für die Wahrscheinlichkeiten nehmen wir an: p 1 (j) = 1/3, denn das Auto wird zufällig auf eine der Türen verteilt. p 2 (k j) = 1/3, denn der Kandidat wählt rein zufällig eine Tür. Es gilt p( ) = p(a 1, a 2, a 3 ) = p 1 (a 1 ) p 2 (a 2 a 1 ) p 3 (a 3 a 1, a 2 ).

22 Kapitel 6 © Beutelspacher Januar 2005 Seite 22 Das Ziegenproblem II Wir nehmen an, dass der Moderator im Fall, dass ihm zwei Türen zur Auswahl stehen, zufällig eine der beiden wählt. Das bedeutet: p 3 (h j, k) = 1, falls j, k, h die drei Zahlen 1, 2, 3 sind. p 3 (h j, k) = 1/2, falls j = k, aber h j. p 3 (h j, k) = 0 in allen anderen Fällen. Das bedeutet p(j, k, h) = 1/9, falls j, k, h die drei Zahlen 1, 2, 3 sind. p(j, k, h) = 1/18, falls j = k, aber h j. p(j, k, h) = 0 in allen anderen Fällen. Wir nehmen an, dass der Moderator im Fall, dass ihm zwei Türen zur Auswahl stehen, zufällig eine der beiden wählt. Das bedeutet: p 3 (h j, k) = 1, falls j, k, h die drei Zahlen 1, 2, 3 sind. p 3 (h j, k) = 1/2, falls j = k, aber h j. p 3 (h j, k) = 0 in allen anderen Fällen. Das bedeutet p(j, k, h) = 1/9, falls j, k, h die drei Zahlen 1, 2, 3 sind. p(j, k, h) = 1/18, falls j = k, aber h j. p(j, k, h) = 0 in allen anderen Fällen.

23 Kapitel 6 © Beutelspacher Januar 2005 Seite 23 Das Ziegenproblem III: Die Gewinnwahrscheinlichkeiten Schließlich definieren wir: A j = {(a 1, a 2, a 3 ) a 1 = j} (das Auto ist hinter der Türe j) W k = {(a 1, a 2, a 3 ) a 2 = k} (der Kandidat wählt Türe k) M h = {(a 1, a 2, a 3 ) a 3 = h} (der Moderator öffnet die Türe h) Wir interessieren uns zum Beispiel für die Wahrscheinlichkeit P(A 2 W 1 M 3 ), d.h. die Wahrscheinlichkeit, das Auto hinter Tür 2 zu finden, falls der Kandidat Tür 1 gewählt und der Moderator Tür 3 geöffnet hat (Erfolg der Wechselstrategie). Schließlich definieren wir: A j = {(a 1, a 2, a 3 ) a 1 = j} (das Auto ist hinter der Türe j) W k = {(a 1, a 2, a 3 ) a 2 = k} (der Kandidat wählt Türe k) M h = {(a 1, a 2, a 3 ) a 3 = h} (der Moderator öffnet die Türe h) Wir interessieren uns zum Beispiel für die Wahrscheinlichkeit P(A 2 W 1 M 3 ), d.h. die Wahrscheinlichkeit, das Auto hinter Tür 2 zu finden, falls der Kandidat Tür 1 gewählt und der Moderator Tür 3 geöffnet hat (Erfolg der Wechselstrategie).

24 Kapitel 6 © Beutelspacher Januar 2005 Seite 24 Das Ziegenproblem IV P(A 2 W 1 M 3 ) = P(A 2 W 1 M 3 ) / P(W 1 M 3 ) = = p(2, 1, 3) / [p(2, 1, 3) + p(1, 1, 3)] = 1/9 / [1/9 + 1/18] = 2/3. (Beachte, dass W 1 M 3 = {(2,1,3), (1,1,3)}, da das Ereignis (3,1,3) nicht möglich ist.) Andererseits ist P(A 1 W 1 M 3 ) = P(A 1 W 1 M 3 ) / P(W 1 M 3 ) = = p(1, 1, 3) / [p(2, 1, 3) + p(1, 1, 3)] = 1/18 / [1/9 + 1/18] = 1/3. Mit anderen Worten: Die Wechselstrategie verdoppelt die Gewinnchancen! P(A 2 W 1 M 3 ) = P(A 2 W 1 M 3 ) / P(W 1 M 3 ) = = p(2, 1, 3) / [p(2, 1, 3) + p(1, 1, 3)] = 1/9 / [1/9 + 1/18] = 2/3. (Beachte, dass W 1 M 3 = {(2,1,3), (1,1,3)}, da das Ereignis (3,1,3) nicht möglich ist.) Andererseits ist P(A 1 W 1 M 3 ) = P(A 1 W 1 M 3 ) / P(W 1 M 3 ) = = p(1, 1, 3) / [p(2, 1, 3) + p(1, 1, 3)] = 1/18 / [1/9 + 1/18] = 1/3. Mit anderen Worten: Die Wechselstrategie verdoppelt die Gewinnchancen!

25 Kapitel 6 © Beutelspacher Januar 2005 Seite 25 Die Formel von der totalen Wahrscheinlichkeit Formel von der totalen Wahrscheinlichkeit. Seien A 1, A 2, …, A s Ereignisse, die paarweise disjunkt sind, und für die A 1 A 2 … A s = gilt. Dann gilt für jedes Ereignis B: P(B) = P(A 1 ) P(B A 1 ) + P(A 2 ) P(B A 2 ) + …+ P(A s ) P(B A s ). Beweis für s = 2. P(B) = P( B) = P((A 1 A 2 ) B) = P((A 1 B) (A 2 B)) = P(A 1 B) + P(A 2 B) = P(A 1 ) P(B A 1 ) + P(A 2 ) P(B A 2 ) Formel von der totalen Wahrscheinlichkeit. Seien A 1, A 2, …, A s Ereignisse, die paarweise disjunkt sind, und für die A 1 A 2 … A s = gilt. Dann gilt für jedes Ereignis B: P(B) = P(A 1 ) P(B A 1 ) + P(A 2 ) P(B A 2 ) + …+ P(A s ) P(B A s ). Beweis für s = 2. P(B) = P( B) = P((A 1 A 2 ) B) = P((A 1 B) (A 2 B)) = P(A 1 B) + P(A 2 B) = P(A 1 ) P(B A 1 ) + P(A 2 ) P(B A 2 ).

26 Kapitel 6 © Beutelspacher Januar 2005 Seite 26 Die Formel von Bayes Formel von Bayes (Thomas Bayes ). Seien P(A) > 0, P(B) > 0. Dann gilt: P(A B) = P(A) P(B A) / P(B). Beweis. Da P(A) > 0 und P(B) > 0, existieren die bedingten Wahrscheinlichkeiten P(B A) und P(A B), und nach Definition gelten: P(A B) = P(A B) P(B) und P(A B) = P(B A) P(A). Zusammen folgt P(A B) P(B) = P(A B) = P(B A) P(A) Formel von Bayes (Thomas Bayes ). Seien P(A) > 0, P(B) > 0. Dann gilt: P(A B) = P(A) P(B A) / P(B). Beweis. Da P(A) > 0 und P(B) > 0, existieren die bedingten Wahrscheinlichkeiten P(B A) und P(A B), und nach Definition gelten: P(A B) = P(A B) P(B) und P(A B) = P(B A) P(A). Zusammen folgt P(A B) P(B) = P(A B) = P(B A) P(A).

27 Kapitel 6 © Beutelspacher Januar 2005 Seite 27 Das Simpson-Paradox Vor einigen Jahren trat an der University of Berkeley in Kalifornien folgendes Phänomen auf: - Unter je 1000 Bewerbern wurde weniger Frauen als Männer zugelassen, - in jedem Fach wurden Frauen gegenüber Männern prozentual bevorzugt. Vor einigen Jahren trat an der University of Berkeley in Kalifornien folgendes Phänomen auf: - Unter je 1000 Bewerbern wurde weniger Frauen als Männer zugelassen, - in jedem Fach wurden Frauen gegenüber Männern prozentual bevorzugt.

28 Kapitel 6 © Beutelspacher Januar 2005 Seite 28 Simpson-Paradox: Beispiel Wir machen uns das an einem Beispiel klar. Die Universität möge nur zwei Fächer haben. MännerFrauen BewerberzugelassenBewerberinnen zugelassen Fach (80%) (90%) Fach (20%) (30%) Summe Wir machen uns das an einem Beispiel klar. Die Universität möge nur zwei Fächer haben. MännerFrauen BewerberzugelassenBewerberinnen zugelassen Fach (80%) (90%) Fach (20%) (30%) Summe

29 Kapitel 6 © Beutelspacher Januar 2005 Seite 29 Stochastische Unabhängigkeit Wir wollen ausdrücken, dass das Eintreten eines Ereignisses B keinen Einfluss auf das Eintreten eines Ereignisses A hat. Definition. Seien A und B Ereignisse. Wir nennen diese stochastisch unabhängig, wenn P(A) = P(A B) gilt. Beobachtung: P(A) = P(A B) P(A B) = P(A) P(B) P(B) = P(B A). (Beweis: P(A) = P(A B) P(A) = P(A B) / P(B) P(A) P(B) = P(A B) P(B) = P(A B) / P(A) P(B) = P(B A).) Wir wollen ausdrücken, dass das Eintreten eines Ereignisses B keinen Einfluss auf das Eintreten eines Ereignisses A hat. Definition. Seien A und B Ereignisse. Wir nennen diese stochastisch unabhängig, wenn P(A) = P(A B) gilt. Beobachtung: P(A) = P(A B) P(A B) = P(A) P(B) P(B) = P(B A). (Beweis: P(A) = P(A B) P(A) = P(A B) / P(B) P(A) P(B) = P(A B) P(B) = P(A B) / P(A) P(B) = P(B A).)

30 Kapitel 6 © Beutelspacher Januar 2005 Seite 30 Beispiele 1. Würfeln mit einem Würfel: A = {2,3}, B = {2,4,6}. P(A) = 2/6 = 1/3, P(B) = 3/6 = 1/2, P(A B) = 1/6. 2. Zweimaliges Würfeln. A = Augensumme ist gerade, B = der erste Wurf hat eine gerade Augenzahl P(A) = 1/2, P(B) = 1/2, P(A B) = ¼. 1. Würfeln mit einem Würfel: A = {2,3}, B = {2,4,6}. P(A) = 2/6 = 1/3, P(B) = 3/6 = 1/2, P(A B) = 1/6. 2. Zweimaliges Würfeln. A = Augensumme ist gerade, B = der erste Wurf hat eine gerade Augenzahl P(A) = 1/2, P(B) = 1/2, P(A B) = ¼.

31 Kapitel 6 © Beutelspacher Januar 2005 Seite 31 Komplementäre Ereignisse Hilfssatz. Seien A und B unabhängige Ereignisse. Dann sind auch A und B (= \ B) unabhängig. Beweis. Es gilt P(A B) = P(A \ (A B)) = P(A) – P(A B) = P(A) – P(A) P(B) = P(A) (1 – P(B)) = P(A) P(B) Hilfssatz. Seien A und B unabhängige Ereignisse. Dann sind auch A und B (= \ B) unabhängig. Beweis. Es gilt P(A B) = P(A \ (A B)) = P(A) – P(A B) = P(A) – P(A) P(B) = P(A) (1 – P(B)) = P(A) P(B).

32 Kapitel 6 © Beutelspacher Januar 2005 Seite 32 Verallgemeinerung der Definition Definition. Drei Ereignisse A, B, C werden stochastisch unabhängig genannt, wenn folgende Gleichungen gelten: P(A) P(B) = P(A B), P(B) P(C) = P(B C), P(A) P(C) = P(A C), P(A) P(B) P(C) = P(A B C). Entsprechend: Verallgemeinerung auf vier, fünf, … Ereignisse. Definition. Drei Ereignisse A, B, C werden stochastisch unabhängig genannt, wenn folgende Gleichungen gelten: P(A) P(B) = P(A B), P(B) P(C) = P(B C), P(A) P(C) = P(A C), P(A) P(B) P(C) = P(A B C). Entsprechend: Verallgemeinerung auf vier, fünf, … Ereignisse.

33 Kapitel 6 © Beutelspacher Januar 2005 Seite 33 Beispiel Viermaliger Münzwurf. A = Kopf im ersten Wurf B = Kopf im zweiten Wurf C = Kopf im dritten Wurf P(A) = P(B) = P(C) = 1/2. P(A B) = P(B C) = P(A C) = 1/4. P(A B C) = 1/8. Viermaliger Münzwurf. A = Kopf im ersten Wurf B = Kopf im zweiten Wurf C = Kopf im dritten Wurf P(A) = P(B) = P(C) = 1/2. P(A B) = P(B C) = P(A C) = 1/4. P(A B C) = 1/8.


Herunterladen ppt "Kapitel 6 Mehrstufige Zufallsexperimente. Kapitel 6 © Beutelspacher Januar 2005 Seite 2 Inhalt 6.1 Mehrstufige Experimente 6.2 Bedingte Wahrscheinlichkeiten."

Ähnliche Präsentationen


Google-Anzeigen