Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Kapitel 5 Wahrscheinlichkeit

Ähnliche Präsentationen


Präsentation zum Thema: "Kapitel 5 Wahrscheinlichkeit"—  Präsentation transkript:

1 Kapitel 5 Wahrscheinlichkeit

2 Inhalt 5.1 Grundbegriffe W, X, ... 5.2 Wahrscheinlichkeitsräume (W, P)
5.3 Das Laplace-Modell P(A) = A/W 5.4 Erwartungswert E(X) Literatur: N. Henze: Stochastik für Einsteiger (die erste Hälfte). A. Engel: Wahrscheinlichkeitsrechnung und Statistik

3 5.1 Zufallsexperimente Beispiele: Münzwurf, Würfeln, ...
Wir sprechen von einem (idealen) Zufallsexperiment, wenn die folgenden Bedingungen erfüllt sind: Versuchsbedingungen klar definiert. Zum Beispiel: Auswahl des Würfels, ...) Menge W der Ergebnisse (Ausgänge): vor der Durchführung bekannt. Zum Beispiel: = {1, 2, 3, 4, 5, 6}. Das Experiment kann beliebig oft unter den gleichen Bedingungen wiederholt werden.

4 Beispiele für Zufallsexperimente
Münzwurf W = {Kopf, Zahl} oder W = {K, Z} oder W = {0, 1}. Anzahl der Würfe bis zur ersten Sechs W = {1, 2, 3, 4, ...} In einer Box liegen vier mit 1, 2, 3, 4 beschriftete Kugeln; zwei Kugeln werden mit einem Griff gezogen. W = { {1,2}, {1,3}, {1,4}, {2,3}, {2,4}, {3,4} }. Zweimaliges Werfen mit einem Würfel. W = { (1,1), (1,2), (1,3), ..., (2,1), (2,2), ..., (3,1), ..., (6,6)}. Lotto 6-aus-49 W = alle 6-elementige Teilmengen von {1, 2, 3, ..., 49}.

5 Notation W = {w1, w3, w3, ...} („omega“) heißt Ergebnismenge (manchmal auch Grundraum). Wenn man das Experiment n mal durchführt, hat man als Ergebnismenge die Menge  W  W  ...  W bzw. wenn die i-te Wi Ergebnismenge vom Index i abhängt: W1  W2  W3  ...  Wn .

6 Ereignisse In vielen Situationen interessieren nicht alle Ausgänge, sondern nur spezielle. Beispiele: Beim Würfeln interessiert nur, ob man eine 6 würfelt. Beim Würfeln mit zwei Würfeln kann eventuell nur interessieren, ob die Summe der Augenzahlen mindestens 8 ist. Beim dreimaligen Werfen einer Münze interessiert nur, ob zwei aufeinanderfolgende Würfe das gleiche Ergebnis haben.

7 Definition: Ereignis Definition: Ein Ereignis ist eine Teilmenge von W. D.h. in dieser Teilmenge werden die interessierenden Ausgänge zusammengefasst. Ereignisse werden üblicherweise mit großen lateinischen Buchstaben A, B, ... Bezeichnet. {} = : unmögliches Ereignis {w}: Elementarereignis (w  W).

8 Rechnen mit Ereignissen
Da Ereignisse Teilmengen von W sind, kann man den Durchschnitt A  B, die Vereinigung A  B, die Differenz A \ B der Ereignisse A und B bilden. A := W \ A: Gegenereignis, Komplement von A Ereignisse A, B unvereinbar, falls A  B = {}. Ereignisse A1, A2, A3, ..., An unvereinbar, falls je zwei der Mengen disjunkt sind. Schreibweise: S Ai = A1 + A An := A1  A2  ...  An für unvereinbare Ereignisse Ai.

9 Beispiel Zweimaliges Würfeln mit einem Würfel
Ereignis A: Der erste Wurf ist eine 5. A = {(5,1), (5,2), (5,3), (5,4), (5,5), (5,6)}. Ereignis B: Die Augenzahl aus beiden Würfen ist mindestens 9. B = {(3,6), (4,5), (4,6), (5,4), (5,5), (5,6), (6,3), (6,4), (6,5), (6,6)}. A  B = {(5,4), (5,5), (5,6)}. A \ B = {(5,1), (5,2), (5,3)}. B \ A = {(3,6), (4,5), (4,6), (6,3), (6,4), (6,5), (6,6)}L

10 Erinnerung Seien A, B, C Ereignisse. Dann gelten die folgenden Gesetze: A  B = B  A, A  B = B  A Kommutativgesetz (A  B)  C = A  (B  C), (A  B)  C = A  (B  C) Assoziativges. A  (B  C) = (A  B)  (A  C) Distributivgesetz A  B = A  B, A  B = A  B Regeln von de Morgan A1  A2  ...  An = A1  A2  ...  An .

11 Zufallsvariable Definition. Sei W ein Grundraum. Eine Zufallsvariable ist eine Abbildung X: W  R. Vorstellung: Jedem Ausgang w eines Zufallsexperiments wird eine reelle Zahl X(w) zugeordnet („Realisierung der Zufallsvariablen zum Ausgang w“). Beispiel: Bei einem Glücksspiel ist X(w) der Gewinn bzw. Verlust beim Ausgang w des Spiels. Bem. 1. Eine Zufallsvariable ist keine Variable, sondern eine Funktion. 2. Sie wird nicht mit g, ... bezeichnet, sondern mit X, Y, ...

12 Beispiel Zweimaliges Würfeln:
W = {(1,1), (1,2), ..., (6,6)} = {(i,j)  i, j  {1, 2, 3, 4, 5, 6}}. X(w) = i + j, falls w = (i,j) (i: Augenzahl des ersten Wurf, j: Augenzahl des zweiten Wurfs). Beobachtung: Aus der Realisierung X(w) kann man im allgemeinen w nicht zurückgewinnen. Zum Beispiel haben die drei Ausgänge (1,3), (2,2), (3.1) die Realisierung 4.

13 Wichtige (und schwierige ...) Schreibweise
Wir schreiben {X = k} := {w  W  X(w) = k}. Das ist das Ereignis, dass X den Wert k annimmt. Beispiel (zweifaches Würfeln): {X = 4} = {(1,3), (2,2), (3,1)}. Wir können die Ereignisse {X = 2}, {X = 3}, ..., {X = 12} wieder als Elementarereignisse eines Experiments auffassen, bei dem nicht w, sondern X(w) als Ausgang angesehen wird.

14 Beispiele Zweimaliges Würfeln Augensumme ist 9: {X = 9}
Augensumme ist mindestens 10: {X = 10} + {X = 11} + {X = 12} Augensumme ist höchstens 5: {X = 2} + {X = 3} + {X = 4} + {X = 5}.

15 Rechnen mit Zufallsvariablen
Aus einer bzw. zwei Zufallsvariablen kann man neue Zufallsvariablen machen. Seien dazu X und Y Zufallsvariablen, d.h. Abbildungen von W  R. 1. Produkt einer Zufallsvariablen mit einer reellen Zahl. Die Abbildung aX: W  R, die definiert ist durch (aX)(w) := aX(w) ist eine Zufallsvariable. 2. Summe zweier Zufallsvariablen. Die Abbildung X+Y : W  R, die definiert ist durch (X+Y)(w) := X(w)+Y(w) ist eine Zufallsvariable. 3. Entsprechend: Differenz, Produkt, Maximum, Minimum.

16 Beispiel Zweifaches Würfeln
Sei w = (i, j), X(w) = i (Augenzahl beim ersten Wurf), Y(w) = j (Augenzahl beim zweiten Wurf). Dann ist X+Y = Summe der Augenzahlen max(X, Y) = höchste Augenzahl min(X, Y) = niedrigste Augenzahl X–Y = Differenz des zweiten vom ersten Wurf (X+Y)/2 = Durchschnitt der beiden Würfe

17 Indikatorfunktion Definition. Sei A ein Ereignis, d.h. eine Teilmenge von W. Die Indikatorfunktion IA ist die Zufallsvariable, die 1 ist, wenn das Ergebnis w zu A gehört, und 0 sonst. Das heißt IA(w) = 1, falls w  W, IA(w) = 0, falls w  W. Die Realisierung von IA gibt an, ob das Ereignis eingetreten ist. Beispiel: Sei A das Ereignis, beim einfachen Würfeln eine gerade Zahl zu würfeln. Dann ist IA(1) = IA(3) = IA(5) = 0, IA(2) = IA(4) = IA(6) = 1.

18 Hilfssatz über Indikatorfunktionen
5.1.1 Hilfssatz. Sei X eine Zufallsvariable, und seien A und B Ereignisse. Dann gilt IAB = IA  IB. In Worten: Die Indikatorfunktion des Durchschnitts zweier Ereignisse ist gleich dem Produkt der einzelnen Indikatorfunktionen. 5.1.2 Folgerung. IA = IA  IA. Beweis der Folgerung: Setze B = A. Dann ist A  B = A  A = A. 

19 Beweis des Hilfssatzes
Beweis. Sei w ein Ergebnis. Wir unterscheiden zwei Fälle. 1. Fall: w  A  B. Dann ist IA  B(w) = 1. Andererseits ist IA(w) = 1 und I B(w) = 1, da w sowohl in A als auch in B liegt. Somit ist auch (IA I B)(w) = IA(w)I B(w) = 11 = 1. Also gilt L.S. = R.S. 2. Fall: w  A  B. Dann ist IA  B(w) = 0. Ferner ist w  A oder w  B. Somit ist IA(w) = 0 oder I B(w) = 0. Also ist in jedem Fall (IA I B)(w) = IA(w)I B(w) = 0. Also ist auch im 2. Fall L.S. = R.S. 

20 Zählvariablen Sei W ein Grundraum, und seien A, B, C, ... Ereignisse. Problem: Wir wollen beschreiben, wie oft eines der Ereignisse A, B, C, ... auftritt. Dies wird durch die folgende Zufallsvariable X beschrieben: X = IA + IB + IC + ... (Denn: Wenn wir die rechte Seite auf ein Ergebnis w anwenden, erhalten wir bei einem einzelnen Summanden eine 1, wenn w zu diesem Ereignis gehört, und sonst eine 0. Also X(w) die Anzahl der Ereignisse, zu denen w gehört.)

21 W = {0,1}n = {(a1, a2, ..., an)  ai  {0,1}}.
Beispiel In vielen Situationen interessiert die Anzahl der „Treffer“. Beispiele: Würfeln (Treffer: 6, Niete: alles andere), Münzwurf (Treffer: Kopf, Niete: Zahl), Lotto (Treffer: 6-er, Niete: alles andere), zweimaliges Würfeln (Treffer: Augenzahl  8, Niete: Augenzahl < 8). Modellierung: Wir beschreiben einen Treffer durch die Zahl 1, eine Niete durch Dann ist die Ergebnismenge (bei n Grundexperimenten): W = {0,1}n = {(a1, a2, ..., an)  ai  {0,1}}. X = a1 + a an ist die Zufallsvariable, die die Anzahl der Treffer angibt.

22 Relative Häufigkeit Um die Chancen eines Zufallsexperiments abzuschätzen, führt man es häufig durch. Beispiel: Werfen einer realen Münze (Zahl: 1, Kopf: 0): Relative Häufigkeit für das Auftreten einer 1 nach 10, 20, ... Versuchen: 0,6 0,65 0,6 0,55 0,52 Man hat den Eindruck, dass sich die relativen Häufigkeiten „stabilisieren“.

23 Definition relative Häufigkeit
Definition. Wir führen ein Zufallsexperiment n mal durch. Wir wollen wissen, „wie häufig“ der Ausgang zu einem Ereignis A gehört. Angenommen, das Experiment liefert die Ausgänge a1, a2, ..., an. Dann ist die relative Häufigkeit bezüglich dieser Experimente definiert durch r = rn(A) = {i  ai  A} / n. Rezept: Zähle, wie oft der Ausgang in A liegt, dividiere durch n. Achtung! Die relative Häufigkeit ist eine empirische Zahl!

24 Eigenschaften der relativen Häufigkeiten
rn  0 für alle Zufallsexperimente und alle Ereignisse („Nichtnegativität“). Wenn A und B zwei unvereinbare Ereignisse sind, dann gilt rn(A  B) = rn(A) + rn(B). („Additivität) rn(W) = 1 („Normiertheit“)

25 Stabilisierung empirischer Häufigkeiten
Bei vielen Experimenten „hat man das Gefühl“, dass sich die empirischen Häufigkeiten stabilisieren. Beispiele: Münzwurf, Werfen einer Reißzwecke, Würfeln, ... Wenn z.B. ein Würfel „auf Dauer“ deutlich mehr als ein Sechstel Sechsen zeigen würde, würde man nicht an einen fairen Würfel glauben. Dieses Gesetz über die Stabilisierung empirischer Häufigkeiten ist aber nur eine Erfahrungstatsache, kein mathematisches Gesetz! Alle Versuche, den Zufall mathematisch über den Weg der relativen Häufigkeiten zu beschreiben, sind i.w. gescheitert ...

26 5.2 Wahrscheinlichkeitsräume
Definition. Ein (endlicher) Wahrscheinlichkeitsraum (W-Raum) besteht aus einem Grundraum W und einer Abbildung P, die jeder Teilmenge A von W eine reelle Zahl P(A) zuordnet, so dass folgende Gesetze gelten: P(A)  0 für alle A  W. Nichtnegativität P(A  B) = P(A) + P(B), falls A  B = {}. Additivität P(W) = Normiertheit Wir schreiben (W, P). P heißt Wahrscheinlichkeitsverteilung (Wahrscheinlichkeitsmaß) auf W. Die Zahl P(A) heißt die Wahrscheinlichkeit des Ereignisses A.

27 Bemerkungen Mit diesen Axiomen werden nur „Spielregeln“ im Umgang mit den mathematischen Wahrscheinlichkeiten festgelegt. Obwohl die Axiome nach dem Vorbild der Eigenschaften der relativen Häufigkeiten gebildet sind, handelt es sich um Aussagen über mathematische Objekte. Die Axiome ergeben sich nicht zwangsläufig aus der Erfahrung. Umgekehrt: Bei einer Anwendung muss man überprüfen, ob die realen Bedingungen den mathematischen Axiomen entsprechen.

28 Erste Eigenschaften 5.2.1 Hilfssatz. Sei (W, P) ein Wahrscheinlichkeitsraum. (a) P({}) = 0. (b) P(A  B  C) = P(A) + P(B) + P(C), falls A, B, C unvereinbar sind. (c) P(A  B) = P(A) + P(B) – P(A  B) für beliebige Ereignisse A, B. (d) P(A)  1 für alle A. (e) P(A) = 1 – P(A). (f) Wenn A  B, dann ist P(A)  P(B).

29 Beweis (a) (a) folgt aus der Additivität
P(A  B) = P(A) + P(B) (falls A  B = { }) und der Normiertheit P(W) = 1 der Wahrscheinlichkeitsverteilung P, wenn wir A = { } und B = W setzen: 1 = P(W) = P({ }  W) = P({ }) + P(W) = P({ }) + 1, also P({ }) = 0.

30 P(A  B) = P(A) + P(B) (falls A  B = { })
Beweis (b) (b) folgt durch mehrfaches Ausnutzen der Additivität P(A  B) = P(A) + P(B) (falls A  B = { }) der Wahrscheinlichkeitsverteilung P: P(A  B  C) = P((A  B)  C) = P(A  B) + P(C) = P(A) + P(B) + P(C).

31 Beweis (c) (c) Wir zerlegen die Menge A  B in die disjunkten Teile A \ B, A  B und B \ A. Nach (b) gilt dann P(A  B) = P(A \ B) + P(A  B) + P(B \ A). Aufgrund der Additivität gilt P(A) = P(A  B) + P(A \ B) (denn A = (A  B)  (A \ B)), P(B) = P(A  B) + P(B \ A) (denn B = (B  A)  (B \ A)). Lösen wir diese beiden Gleichungen nach P(A \ B) bzw. P(B \ A) auf, und setzen das Ergebnis in die obere Gleichung ein, so ergibt sich P(A  B) = P(A) + P(B) - P(A  B).

32 1 = P(W ) = P(A  A) = P(A) + P(A).
Beweise (e), (d) und (f) (e) Wir zerlegen den Grundraum W in die disjunkten Teilmengen A und A. Aufgrund der Normiertheit und der Additivität von P folgt: 1 = P(W ) = P(A  A) = P(A) + P(A). (d) Da P(A)  0 gilt, folgt aus (e): P(A) = 1 - P(A)  0, also P(A)  1. (f) Wenn A  B ist, dann können wir B in die disjunkten Teilmengen A und B \ A zerlegen. Daher ist P(B) = P(A) + P(B \ A). Da P(B \ A)  0 ist, folgt P(B)  P(A).

33 Wahrscheinlichkeit von Elementarereignissen
Frage: Müssen wir die Wahrscheinlichkeitsverteilung P für jede Teilmenge A von W einzeln definieren? (Bereits bei | W | = 10 wären das 210 = 1024 Teilmengen, für die wir die Wahrscheinlichkeit festlegen müßten!) Antwort: Nein! Es genügt, jedem Elementarereignis {w} eine Wahrscheinlichkeit P({w}) zuzuordnen. Zur Abkürzung: p(w) := P({w}). Die Wahrscheinlichkeit eines Ereignisses A ergibt sich dann wie folgt. 5.2.2 Satz. Sei A ( {}) ein Ereignis im Grundraum W. Dann gilt P(A) = p(w).

34 Beweis Beweis. Jedes Ereignis A   besteht aus gewissen Ergebnissen w  . Wir können A wie folgt als Vereinigung von Elementarereignissen {w} schreiben: A = {w}. Da die Elementarereignisse disjunkt sind, ergibt sich aufgrund der Additivitätseigenschaft P(A) = P( {w}) = p(w).

35 5.3 Das Laplace-Modell Idee: Bei vielen Zufallsexperimenten sind alle Elementarexperimente „gleich wahrscheinlich“. Beispiele: Würfeln mit einem „korrekten“ Würfel, Werfen einer „fairen“ Münze. Definition: Sei W = {w1, w2, ..., ws} eine s-elementige Menge, und sei p(w) = 1/s für alle w  W. Dann heißt (W, P) ein Laplacescher Wahrscheinlichkeitsraum. Man nennt P die diskrete Gleichverteilung (Laplace-Verteilung).

36 P(A) = p(w1) + p(w2) + ... + p(wt) = t  1/s = A / s.)
Bemerkungen 5.3.1 Satz. In einem Laplaceschen Wahrscheinlichkeitsraum gilt P(A) = A / s = A / W für alle Ereignisse A. (Beweis. Sei A = {w1, w2, ..., wt}. Dann folgt mit 5.2.2 P(A) = p(w1) + p(w2) p(wt) = t  1/s = A / s.) Pierre Simon Laplace (1749 – 1827): Professor in Paris.

37 Beispiel: Zweifaches Würfeln
Frage: Mit welcher Wahrscheinlichkeit tritt die Augenzahl 5 (oder irgend ein Zahl zwischen 2 und 12) auf? W = {(1,1), ..., (6.6)} = {1, 2, ..., 6}  {1, 2, ..., 6} (1,1) (1,2) (1,3) (1,4) (1,5) (1,6) (2,1) (2,2) (2,3) (2,4) (2,5) (2,6) (3,1) (3,2) (3,3) (3,4) (3,5) (3,6) (4,1) (4,2) (4,3) (4,4) (4,5) (4,6) (5,1) (5,2) (5,3) (5,4) (5,5) (5,6) (6,1) (6,2) (6,3) (6,4) (6,5) (6,6) Laplacescher Wahrscheinlichkeitsraum  p(w) = 1/36.

38 Beispiel: zweifaches Würfeln. Die Wahrscheinlichkeiten
X(w) = i+j für w = (i, j). {X = 5} = {(1,4), (2,3), (3,2), (4,1)}. Also P(X = 5) = 4/36 = 1/9. Im allgemeinen gilt P(X = 2) = 1/36, P(X = 3) = 2/36, P(X = 4) = 3/36, P(X = 5) = 4/36, P(X = 6) = 5/36, P(X = 7) = 6/36, P(X = 8) = 5/36, P(X = 9) = 4/36, P(X = 10) = 3/36, P(X = 11) = 2/36, P(X = 12) = 1/36.

39 Beispiel (Leibniz) Leibniz (Gottfried Wilhelm Leibniz, 1646 – 1716) meinte, dass beim Würfeln mit zwei Würfeln die Augensummen 11 und 12 gleich wahrscheinlich sind. Offenbar betrachtet Leibniz Grundraum W = {(1,1), (1,2), (1,3), (1,4), (1,5), (1,6), (2,2), (2,3), (2,4), (2,5), (2,6), (3,3), (3,4), (3,5), (3,6), (4,4), (4,5), (4,6), (5,5), (5,6), (6,6)} wobei (i,j) interpretiert wird als „ein Würfel zeigt i, der andere j“. Es gibt genau ein Experiment w, das die Realisierung X(w) = 11 und genau ein Experiment, das die Realisierung 12 hat. Aber ...

40 Beispiel (Leibniz): Fortsetzung
... aber es handelt sich nicht um einen Laplaceschen Wahrscheinlichkeitsraum. Das heißt: Nicht alle Elementarereignisse sind gleich wahrscheinlich! Lösung: In unserer Vorstellung müssen wir die Würfel unterscheiden (z.B. einer rot, einer schwarz). Dann gibt es für die Augenzahl 12 nur einen Ausgang (nämlich rot = 6 und schwarz = 6), aber für die Augensumme 11 zwei Ausgänge (rot = 5, schwarz = 6 und rot = 6 und schwarz = 5). Mit anderen Worten: Wenn man die Gleichverteilung anwenden will, muss man den Grundraum W = {1, 2, ..., 6}  {1, 2, ..., 6} betrachten.

41 Beispiel (Galilei) Galileo Galilei (1564 – 1642) wurde folgende Frage gestellt: Warum ist beim dreimaligen Würfeln die Augensumme 10 wahrscheinlicher als die Augensumme 9 – obwohl es jeweils gleich viele Kombinationen gibt, nämlich 1 2 6, 1 3 5, 2 2 5, 2 3 4, 1 4 4, bzw , 2 2 6, 1 4 5, 2 3 5, 2 4 4, ??? Mögliche Antworten: (a) Es gibt zwar gleich viele „Kombinationen“, diese haben aber nicht die gleiche Wahrscheinlichkeit. (b) Am besten betrachtet man den zugehörigen Laplaceschen Wahrscheinlichkeitsraum:

42 Beispiel (Galilei). Lösung
W = {1, 2, ..., 6}  {1, 2, ..., 6}  {1, 2, ..., 6}. W = 63 = 216. X(w) = i + j + k, wobei w = (i, j, k) ist. Das Ereignis {X = 9} besteht aus 6 Permutation von 1 2 6, 6 Permutationen von 135, 3 unterscheidbaren Permutation von 2 2 5, 6 Permutationen von 2 3 4, 3 unterscheidbaren Permutationen von , dem Wurf Also P(X = 9) = 25/216. Andererseits ist P(X = 10) = 27/216.

43 Das Ziegenproblem In einer Spielshow steht der Gewinner am Ende vor folgender Situation: Vor sich sieht er drei Türen. Er weiß: Hinter einer steht ein Auto, hinter den beiden anderen nur eine Ziege (= Niete). Er wählt eine Tür – ohne sie zu öffnen. Dann öffnet der Showmaster eine andere Tür, hinter der eine Ziege steht. Jetzt fragt der Showmaster den Kandidaten: Wollen sie die von Ihnen gewählte Tür wechseln? Problem: Kann die Mathematik dem Kandidaten helfen?

44 Das Ziegenproblem: Ask Marylin!
Das Ziegenproblem wurde durch folgendes Ereignis bekannt: Marylin vos Savant, angeblich der Mensch mit dem höchsten Intelligenzquotient, hat in den U.S.A. eine Kolumne („Ask Marylin“), in der sie alle möglichen kniffligen Fragen beantwortet. Auf das Ziegenproblem antwortete sie, dass Wechseln die Gewinnchancen erhöht, und zwar auf das Doppelte. Das Ergebnis war eine heiße Diskussionen, in der Marilyn heftigst angegriffen wurde. Teilweise „wissenschaftlich“ („offensichtlich hat bei zwei verbleibenden Möglichkeiten jede die gleiche Chance“), teilweise unwissenschaftlich („Frauen und Mathematik ...“) ABER ...

45 Das Ziegenproblem: Marylin hat Recht!
5.3.2 Satz. Wenn man bei seiner Entscheidung bleibt, hat man eine Gewinnchance von (nur) 1/3. Wenn man wechselt, gewinnt man mit der Wahrscheinlichkeit 2/3. Beweis. Wir nehmen an, dass der Kandidat jede der drei Türen mit Wahrscheinlichkeit 1/3 wählt (Laplace-Verteilung). (a) Der Kandidat wechselt nicht. Dann wählt er eine Tür und hat mit Wahrscheinlichkeit 1/3 das Auto.

46 Das Ziegenproblem: Der Kandidat wechselt die Tür
(b) Der Kandidat wechselt. Wenn er (mit Wahrscheinlichkeit 1/3) die Autotür gewählt hat, verliert er. Mit Wahrscheinlichkeit 2/3 hat er eine Ziegentür gewählt. Der Showmaster öffnet die andere Ziegentür! Das heißt: Wechseln bringt den Kandidaten zwangsläufig zur Autotür! Literatur: G.v. Randow: Das Ziegenproblem. rororo.

47 Das Geburtstagsparadox
Frage 1: Wie groß muss eine Gruppe von Personen sein, dass die Wahrscheinlichkeit > ½ ist, dass zwei dieser Personen am gleichen Tag des Jahres Geburtstag haben?

48 Das Geburtstagsparadox II
Frage 2: Am ging folgende Meldung durch die Presse: „(dpa) Zum ersten Mal in der 40jährigen Geschichte des deutschen Zahlenlottos wurden zwei identische Gewinnreihen festgestellt. Am 21. Juni dieses Jahres kam im Lotto am Mittwoch in der Ziehung A die Gewinnreihe heraus. Genau die selben Zahlen wurden bei der Ausspielung im Samstagslotto schon einmal gezogen, nämlich am 20. Dezember Welch ein Lottozufall: Unter den 49 Zahlen sind fast 14 Millionen verschiedene Sechserreihen möglich.“ Ist das wirklich so unwahrscheinlich?

49 Modellierung des Geburtstagsproblems
Wir stellen uns n Fächer vor. Dies ist die Anzahl aller Möglichkeiten. Bei den Geburtstagen ist n = 365 (Anzahl der möglichen Geburtstage). Beim Lotto ist n  14 Millionen (Anzahl der möglichen Ziehungen). Nun werden die Fächer sukzessiv zufällig besetzt. Frage: Wann wird das erste Fach doppelt besetzt, d.h. wann tritt die erste Kollision auf ? Xn = Zeitpunkt der ersten Kollision beim sukzessiven, rein zufälligen Besetzen von n Fächern.

50 Ergebnis zum Geburtstagsparadox
5.3.3 Satz. P(Xn  k+1) = n(n–1)(n–2)...(n–k+1) / nk. Dies ist die Wahrscheinlichkeit, dass bis zur (k+1)-ten Belegung noch keine Kollision aufgetreten ist. Beweis. Wir gehen davon aus, dass alle Belegungen der Fächer mit k Objekten gleichwahrscheinlich ist (Laplace-Modell). Dann ist n(n–1)(n–2)...(n–k+1) die Anzahl der Belegungen ohne Kollision und nk ist die Anzahl aller Belegungen. Die Aussage des Satz ergibt sich jetzt durch Satz („Wahrscheinlichkeit = Anzahl der günstigen Fälle durch Anzahl der möglichen Fälle“). 

51 Folgerung und Anwendungen
5.3.4 Folgerung. P(Xn  k) = 1 – n(n–1)(n–2)...(n–k+1) / nk. Dies ist die Wahrscheinlichkeit, dass bis zur k-ten Belegung mindestens eine Kollision aufgetreten ist. Beispiel 1: n = 365. P(Xn  22)  0,4757; P(Xn  23)  0,5073; P(Xn  26)  0,5982; P(Xn  40)  0,8912; P(Xn  60)  0,99412. D.h.: Bei 60 Personen ist die Wahrscheinlichkeit über 99%, dass zwei am gleichen Tag Geburtstag haben. Beispiel 2: n = P(Xn  3500)  0,3546; P(Xn  4500)  0,5152; P(Xn  5500)  0,6609; P(Xn  6500)  0,7792.

52 Zeitpunkt der ersten Kollision
5.3.5 Satz. Bei einer sukzessiven, rein zufälligen Besetzung von n Fächer ist der Zeitpunkt der ersten Kollision etwa n.

53 5.4 Der Erwartungswert Mit dem Begriff des Erwartungswerts kann man u.a. Probleme des folgenden Typs lösen: Sie spielen folgendes Spiel: Sie werfen eine Münze 4 mal. Wenn jedesmal Kopf erscheint, gewinnen Sie 20 Euro, wenn in genau 3 Würfen Kopf erscheint, gewinnen Sie 10 Euro. Der Einsatz pro Spiel beträgt 4 Euro. Würden Sie ein solches Spiel auf Dauer spielen?

54 Allgemeinere Fragestellung
Wir stellen uns ein Glücksrad vor mit den Sektoren w1, w2, ..., ws. Wenn der Zeiger im Sektor wi stehen bleibt, erhält man den Gewinn X(wi). Wir spielen das Spiel n mal. Dabei bleibt der Zeiger h1 mal im Sektor w1, h2 mal im Sektor w2, ..., hs mal im Sektor ws stehen. Dann ist die durchschnittliche Auszahlung pro Spiel gleich ( h1  X(w1) + h2  X(w2) hs  X(ws) ) / n = X(w1)  h1/n + X(w2)  h2/n X(ws)  hs/n .

55 Definition Erwartungswert
Wenn man (für großes n) die relative Häufigkeit hi/n durch die Wahrscheinlichkeit p(wi) beschreibt, wird der vorige Ausdruck zu: X(w1)  p(w1) + X(w2)  p(w2) X(ws)  p(ws) . Das ist die auf lange Sicht erwartete Auszahlung pro Spiel. Definition. Sei W = {w1, w2, ..., ws} ein endlicher Grundraum mit Wahrscheinlichkeitsverteilung P, und sei X eine Zufallsvariable. Dann nennt man die Zahl E(X) = X(w1)  p(w1) + X(w2)  p(w2) X(ws)  p(ws) den Erwartungswert der Zufallsvariablen X.

56 Beispiele Beispiel 1: einfaches Würfeln. Sei X(w) die Augenzahl beim Wurf w. Dann ist E(X) = 1  1/6 + 2  1/6 + 3  1/6 + 4  1/6 + 5  1/6 + 6  1/6 = 3,5. Beispiel 2: Eingangsbeispiel. Wir fassen W = {0,1}4 als Laplaceschen Wahrscheinlichkeitsraum auf, d.h. jedes Elementarereignis hat Wahrscheinlichkeit 1/16. X(w) ist der Gewinn bzw. Verlust (= Auszahlung – Einzahlung). Dann ist einmal X(w) = 16 (= 20–4), viermal X(w) = 6 (= 10–4), sonst X(w) = –4. Also E(X) = (1    –4) / 16 = – ¼.

57 Satz über den Erwartungswert
5.4.1 Satz. Seien X, Y Zufallsvariablen auf W, und sei A  W ein Ereignis. Dann gelten die folgenden Aussagen: (a) E(X + Y) = E(X) + E(Y) („Additivität“). (b) E(aX) = a  E(X) („Homogenität“). (c) Wenn X  Y (das bedeutet X(w)  Y(w) für alle w  W), dann gilt auch E(X)  E(Y) („Monotonie“). (d) E( IA) = P(A).

58 Beweis (a) Beweis. (a) Es gilt E(X + Y)
= (X+Y)(w1)  p(w1) + (X+Y)(w2)  p(w2) (X+Y)(ws)  p(ws) = X(w1)  p(w1) + X(w2)  p(w2) X(ws)  p(ws) + Y(w1)  p(w1) + Y(w2)  p(w2) Y(ws)  p(ws) = E(X) + E(Y). (b) und (c) werden ganz entsprechend bewiesen (ÜA).

59 Beweis (d) (d) Sei A = {w1, w2, ..., wt}.
Nach Definition ist IA(wi) = 1 für i  t (d.h. w  W) und = 0 sonst. Also E(IA) = 1  p(w1) + 1  p(w2)  p(wt) = p(w1) + p(w2) p(wt) = P(A). 

60 Folgerung 5.4.2 Folgerung. Seien X, Y, Z, ... Zufallsvariablen auf W. Dann gilt E(X + Y + Z + ...) = E(X) + E(Y) + E(Z) + ... Beweis. Wir führen den Beweis für drei Zufallsvariablen X, Y, Z. Wir wenden zwei Mal (a) an und erhalten: E(X + Y + Z) = E( (X+Y) + Z) = E(X+Y) + E(Z) = E(X) + E(Y) + E(Z). Im allgemeinen beweist man dies mit Induktion nach der Anzahl n der Zufallsvariablen. 

61 Erwartungswert einer Zählvariable
5.4.3 Satz. Seien A, B, C, ... Ereignisse (d.h. A, B, C  W), und sei X die entsprechende Zählvariable, d.h. X = IA + IB + IC + ... Dann gilt E(X) = P(A) + P(B) + P(C) + ... Wenn die Ereignisse A, B, C, die gleiche Wahrscheinlichkeit p besitzen, so ist E(X) = n  p, wobei n die Anzahl der betrachteten Ereignisse ist.

62 Beweis Beweis. Nach 5.4.1 (d) gilt
E(IA) = P(A), E(IB) = P(B), E(IC) = P(C), ... Nach gilt E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) + ... Zusammen folgt die Behauptung: E(IA + IB + IC +...) = E(IA) + E(IB) + E(IC) = P(A) + P(B) + P(C) 

63 Beispiel Wir betrachten die Menge aller Permutationen der Menge {1, ..., n}. Definition. Eine Permutation p hat den Fixpunkt j, falls p(j) = j ist. 5.4.4 Hilfssatz. (a) Es gibt genau (n–1)! Permutationen mit dem Fixpunkt j. (b) Die Wahrscheinlichkeit, dass eine zufällig ausgewählte Permutation den Fixpunkt j hat, ist 1/n. Beweis. (a) Jede Permutation mit Fixpunkt j kann auf den restlichen n–1 Elementen eine beliebige Permutation sein. (b) Insgesamt gibt es n! Permutationen, also ist der Anteil der Permutationen mit Fixpunkt j genau 1/n. 

64 Die Wahrscheinlichkeit für einen Fixpunkt
5.4.5 Satz. Die Zufallsvariable X beschreibe die Anzahl der Fixpunkte einer zufällig gewählten Permutation. Dann gilt: E(X)=1. Mit anderen Worten: Wenn man eine Permutation rein zufällig aussucht, hat diese im Mittel genau einen Fixpunkt. Beweis. Wir betrachten den Grundraum W aller Permutationen und gehen davon aus, dass alle die gleiche Wahrscheinlichkeit haben. Das Ereignis Aj „eine Permutation hat den Fixpunkt j“ hat nach die Wahrscheinlichkeit 1/n. Dies gilt für alle j  {1, ..., n}, also folgt nach für die Zählvariable X („es tritt einer der Fixpunkte 1, 2, ..., n auf“) E(X) = P(A1) + P(A2) P(An) = n1/n = 1. 

65 Stichproben Problem: Eine Urne enthält r rote und s schwarze Kugeln. Aus der Urne werden nacheinander zufällig n Kugeln gezogen. Frage: Wie groß ist die Wahrscheinlichkeit, dass diese Stichprobe genau k rote Kugeln enthält? Anwendung: Rote Kugeln entsprechen defekten Teilen einer Warenlieferung. Man möchte aufgrund der Stichprobe Rückschlüsse auf die Gesamtzahl der defekten Teile ziehen.

66 W = {(a1, a2,..., an)  ai  {1, ..., r+s}, ai  aj},
Modellierung Wir nummerieren die Kugeln: 1, ...., r+s. Dabei seien die Kugeln 1, ..., r die roten Kugeln, also die Kugeln r+1, ..., r+s die schwarzen. Als Ergebnisraum bietet sich an: W = {(a1, a2,..., an)  ai  {1, ..., r+s}, ai  aj}, wobei ai die Nummer der i-ten gezogenen Kugel ist. Dann ist W = (r+s)(r+s–1) ...  (r+s–n+1). (Für die erste Kugel stehen r+s Werte zur Verfügung, für die zweite nur noch r+s–1. Usw. für die n-te nur noch r+s–n+1.)

67 Fortsetzung Modellierung
Wir stellen uns vor, dass es sich um einen Laplaceschen Wahrscheinlichkeitsraum handelt (die Ziehungen erfolgen rein zufällig!). Daher gilt für jedes Ereignis A  W: P(A) = A / W = A / (r+s)(r+s–1)...(r+s–n+1). Die Teilmenge Aj = {(a1, a2,..., an)  aj  r} beschreibt genau das Ereignis „die j-te Kugel ist rot“.

68 Die Wahrscheinlichkeit dafür, dass die j-te Kugel rot ist
5.4.6 Hilfssatz. P(Aj) = r/(r+s) für alle j. Mit anderen Worten: Die Ereignisse A1, A2, ..., An haben alle die gleiche Wahrscheinlichkeit. 1. Beweis. Jede der r+s Kugeln hat die gleiche Wahrscheinlichkeit, als j-te gezogen zu werden. Dafür, dass diese rot ist, gibt es r Möglichkeiten. 2. Beweis. Wie viele Möglichkeiten gibt es, n Kugeln zu ziehen, so dass die j-te rot ist? Dazu legen wir zuerst die j-te fest (r Möglichkt.). Die anderen n–1 Kugeln sind beliebig. Also ist die Gesamtzahl r(r+s–1) ...  (r+s–n+1). Mit W = (r+s)(r+s–1)...(r+s–n+1) folgt die Behauptung.

69 Die hypergeometrische Verteilung
Die Zufallsvariable X = IA1 + IA IAn beschreibt die Anzahl der roten Kugeln beim n-maligen Ziehen ohne Zurücklegen. Die Verteilung (d.h. die Wahrscheinlichkeiten P(X = k)) dieser Zufallsvariablen heißt die hypergeometrische Verteilung. 5.4.7 Satz. (a) E(X) = nr/(r+s). (b) P(X=k) =

70 Beweis Beweis. (a) folgt aus 5.4.2.
(b) (X = k) bedeutet, dass genau k der Ereignisse A1, ..., An eintreten. Wir zählen die Anzahl dieser Möglichkeiten: Es gibt Möglichkeiten für die Stellen, an denen die roten Kugeln stehen. Diese werden durch verschiedene Nummern  r besetzt. Dafür gibt es r(r–1)...(r–k+1) Möglichkeiten. Nun werden die restlichen n–k Stellen aus dem Bereich der schwarzen Kugeln ausgewählt. Dafür gibt es s(s–1)...(s–(n–k)+1) Möglichkeiten. Multiplizieren, durch W teilen, ausrechnen!  


Herunterladen ppt "Kapitel 5 Wahrscheinlichkeit"

Ähnliche Präsentationen


Google-Anzeigen