Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Hypothesenprüfung nach Bayes

Ähnliche Präsentationen


Präsentation zum Thema: "Hypothesenprüfung nach Bayes"—  Präsentation transkript:

1 Hypothesenprüfung nach Bayes

2 Bedingte Wahrscheinlichkeiten
In einem Semester seien 60 Studierende, davon 50 Studentinnen. 20 Studentinnen und 5 Studenten sind Brillenträger. Wie groß ist p () p () p (  ) p ( | ) p ( | ) 25/60 50/60 20/60 20/50 20/25 Def.: p (A | B) = p (A  B) / p(B) p (A  B) = p (A)  p (B | A) 20/60 = 25/60  20/25 = p (B)  p (A | B) = 50/60  20/50 Unabhängigkeit: p (A | B) = p (A). p (A  B) = p (A)  p (B)

3 Würfelspiel Es gibt zwei Würfel: einen „guten“: p(1) = p(2) = ... = 1/6, und einen manipulierten: p(1) = ... = p(5) = 1/10, p(6) = 1/2. Der Spielleiter greift in einen Beutel und zieht zufällig einen der beiden Würfel heraus. Man sieht es dem Würfel aber nicht an, ob er der gute oder der manipulierte ist. Der Spielleiter würfelt n Würfe. Das Ergebnis R ist also ein n-Tupel, z. B. {2, 6, 4, 6}. Wie wahrscheinlich ist die Hypothese Hm: manipulierter Würfel bei diesem R ? Wie groß ist p (Hm | R) ?

4 a priori Wahrscheinlichkeit
Bayes gegeben: p (R | H) manipulierter Würfel: p(1) = ... = p(5) = 1/10, p(6) = 1/2. gesucht: p (H | R) {2, 6, 4, 6}: manipulierter Würfel? p (R  H) = p (R)  p (H | R) = p (H)  p (R | H) p (H | R) = p (H)  p (R | H) / p (R) a priori Wahrscheinlichkeit

5 a priori / a posteriori p (Hi | R) = p (Hi)  p (R | Hi) / p (R)
gegeben ein vollständiger Satz unvereinbarer Hypothesen Hi mit a priori Wahrscheinlichkeiten p (Hi) p (R) = p (R  H1) + p (R  H2) = p (H1)  p (R | H1) + p (H2)  p (R | H2) + ... so sind die a posteriori Wahrscheinlichkeiten p (Hi | R) p (Hi | R) = p (Hi)  p (R | Hi) / j p (Hj)  p (R | Hj)

6 Welcher Würfel war‘s? p (Hi | R) = p (Hi)  p (R | Hi) / j p (Hj)  p (R | Hj) a priori: p(Hm) = p(Hg ) = 0.5. p (Ri | Hg): p(1) = p(2) = ... = p(6) = 1/6, p (Ri | Hm): p(1) = p(2) = ... = p(5) = 1/10, p(6) = 1/2. p ({2, 6, 4, 6} | Hg) = 1/60 · 1/6 · 1/60 · 1/6 = 1/1296, p ({2, 6, 4, 6} | Hm) = 1/10 · 1/2 · 1/10 · 1/2 = 1/400, p ({2, 6, 4, 6}) = 0.5 · 1/ · 1/400 = 53/32400 = , p (Hm | {2, 6, 4, 6}) = 0.5 · 1/400 / (0.5 · 1/ · 1/1296) = 0.5 · 1/400 / (0.5 · 1/ · 1/1296) a posteriori: p (Hm | {2, 6, 4, 6}) = 1296/1696 = 81/106 =

7 Bayes mit gleichförmigen a priori Wahrscheinlichkeiten (uniform priors)
man kann kürzen: p (Hi | R) = p (Hi)  p (R | Hi) / j p (Hj)  p (R | Hj) = p (R | Hi) / j p (R | Hj) p (Hi | R) = p (R | Hi)  p (Hi) / p (R)  p (R | Hi) konstant, hängt nicht von i ab. Will man nur die wahrscheinlichste Hypothese wissen, so reicht es, das maximale p (R | Hi) zu finden.

8 maximum likelihood Eine Eigenschaft sei in der Population normalverteilt, µ0 und 0 seien bekannt. Eine Intervention hat evtl. Einfluß auf den Mittelwert, nicht hingegen auf die Streuung. Eine Messung an n Individuen mit Intervention ergab die Meßwerte {xi}. Für jedes hypothetische µInt kann jetzt p ({xi} | µInt) errechnet werden: p ({xi} | µInt) = i=1...n N (µInt, 02, xi). Gesucht wird das hypothetische µInt, wo p (xi | µInt) maximal ist. In diesem einfachen Falle ist das maximal wahrscheinliche µ einfach gleich dem Mittelwert der xi.

9 Hausaufgabe Es gibt zwei Würfel: einen „guten“: p(1) = p(2) = ... = 1/6, und einen manipulierten: p(1) = ... = p(5) = 1/10, p(6) = 1/2. a priori: gleichförmig, p(Hm) = p(Hg ) = 0.5. R: {2}. Wie groß ist a posteriori p (Hm | R) ? neues a priori = a posteriori R: {6}. Wie groß ist p (Hm | R) jetzt? Wie groß wäre es nach R: {6} bei uniform priors? Wie groß ist die a posteriori Wahrscheinlichkeit bei uniform priors, R = {2,6} ?


Herunterladen ppt "Hypothesenprüfung nach Bayes"

Ähnliche Präsentationen


Google-Anzeigen