Hypothesenprüfung nach Bayes

Slides:



Advertisements
Ähnliche Präsentationen
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Advertisements

Wiederholung TexPoint fonts used in EMF.
Normalverteilte Zufallsvariablen
Physikalische Messgrößen
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Einfaktorielle Varianzanalyse
Gliederung Vertrauensintervalle Arten von Hypothesen
Gliederung Definition des Wahrscheinlichkeitsbegriffes
Wahrscheinlichkeit und die Normalverteilung
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Informatik II, SS 2008 Algorithmen und Datenstrukturen Vorlesung 4 Prof. Dr. Thomas Ottmann Algorithmen & Datenstrukturen, Institut für Informatik Fakultät.
Prüfung statistischer Hypothesen
Statistische Methoden I
Statistische Methoden I
Konfidenzintervalle Intervallschätzung
Die Student- oder t-Verteilung
Allgemein definiert man:. Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt.
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
Zeit: 14:15 Ort: Hörsaal Loefflerstraße Heute wird die Vorlesung vom vergangenen Freitag nachgeholt! im Anschluss an die heutige reguläre Vorlesung.
II. Wahrscheinlichkeitstheorie
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird auf Montag, den 17. Mai verlegt! Zeit: 16 Uhr Ort: Kiste Nächste Woche!!!!
Statistische Methoden II SS 2003 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
III. Induktive Statistik
Wahrscheinlichkeitsräume. A. N. Kolmogorov Kolmogorov wurde (mehr zufällig, seine Mutter war auf der Durchreise) in Tambov, Russland, geboren.
Extra-SPSS-Kurse Durchführung: Birte Holtfreter Termine Di Mi Mi Ort PC-Pool Loefflerstarße.
Statistische Methoden I WS 2002/2003 Probeklausur Freitag, 13. Dezember statt Vorlesung - Nächsten Freitag!!!
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Wiederholung und Beispiele
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Binomialverteilung: Beispiel
Bayes‘sche Verfahren (Mitchell Kap. 6), Teil 1
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Wahrscheinlichkeitsrechnung
Deutsch als Zweitsprache: Experimentelle Methoden WS 2013/2014
Wahrscheinlichkeits-rechnung
Formulierung und Überprüfung von Hypothesen
Ausgleichungsrechnung I
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Wahrscheinlichkeitsrechnung
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation
Einführung in SPSS/PASW. Inhaltsübersicht 1. Intro ( ) 2. Deskriptive Statistik ( ) (In Buch 1 Seite 85ff.) Kennwerte (Erwartungswert,
Mittelwert und Standardabweichung
Statistische Lernmethoden
Wahrscheinlichkeit Zufallsexperiment:
Mehr zum Testen von Hypothesen
Grundlagen der Messtechnik
Wahrscheinlichkeitsrechnung
Wahrscheinlichkeitsrechnung
Stetige Verteilungen Das Uhrenbeispiel Dichtefunktion
Tutorium Statistik II Übung IV Philipp Schäpers Mi – 11.45
Einführung zur Fehlerrechnung
K. Desch - Statistik und Datenanalyse SS05
Die Gaussverteilung.
Geoinformationssysteme
Beispiel 1: Schüler eines bestimmten Alters benötigen für einen Hindernislauf im Mittel 23 Sekunden, die Zeiten können als normalverteilt angenommen werden.
Vorbereitungsseminar zum fachdidaktischen Blockpraktikum im SS 2011
TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung.
 Präsentation transkript:

Hypothesenprüfung nach Bayes

Bedingte Wahrscheinlichkeiten In einem Semester seien 60 Studierende, davon 50 Studentinnen. 20 Studentinnen und 5 Studenten sind Brillenträger. Wie groß ist p () p () p (  ) p ( | ) p ( | ) 25/60 50/60 20/60 20/50 20/25 Def.: p (A | B) = p (A  B) / p(B) p (A  B) = p (A)  p (B | A) 20/60 = 25/60  20/25 = p (B)  p (A | B) = 50/60  20/50 Unabhängigkeit: p (A | B) = p (A). p (A  B) = p (A)  p (B)

Würfelspiel Es gibt zwei Würfel: einen „guten“: p(1) = p(2) = ... = 1/6, und einen manipulierten: p(1) = ... = p(5) = 1/10, p(6) = 1/2. Der Spielleiter greift in einen Beutel und zieht zufällig einen der beiden Würfel heraus. Man sieht es dem Würfel aber nicht an, ob er der gute oder der manipulierte ist. Der Spielleiter würfelt n Würfe. Das Ergebnis R ist also ein n-Tupel, z. B. {2, 6, 4, 6}. Wie wahrscheinlich ist die Hypothese Hm: manipulierter Würfel bei diesem R ? Wie groß ist p (Hm | R) ?

a priori Wahrscheinlichkeit Bayes gegeben: p (R | H) manipulierter Würfel: p(1) = ... = p(5) = 1/10, p(6) = 1/2. gesucht: p (H | R) {2, 6, 4, 6}: manipulierter Würfel? p (R  H) = p (R)  p (H | R) = p (H)  p (R | H) p (H | R) = p (H)  p (R | H) / p (R) a priori Wahrscheinlichkeit

a priori / a posteriori p (Hi | R) = p (Hi)  p (R | Hi) / p (R) gegeben ein vollständiger Satz unvereinbarer Hypothesen Hi mit a priori Wahrscheinlichkeiten p (Hi) p (R) = p (R  H1) + p (R  H2) + ... = p (H1)  p (R | H1) + p (H2)  p (R | H2) + ... so sind die a posteriori Wahrscheinlichkeiten p (Hi | R) p (Hi | R) = p (Hi)  p (R | Hi) / j p (Hj)  p (R | Hj)

Welcher Würfel war‘s? p (Hi | R) = p (Hi)  p (R | Hi) / j p (Hj)  p (R | Hj) a priori: p(Hm) = p(Hg ) = 0.5. p (Ri | Hg): p(1) = p(2) = ... = p(6) = 1/6, p (Ri | Hm): p(1) = p(2) = ... = p(5) = 1/10, p(6) = 1/2. p ({2, 6, 4, 6} | Hg) = 1/60 · 1/6 · 1/60 · 1/6 = 1/1296, p ({2, 6, 4, 6} | Hm) = 1/10 · 1/2 · 1/10 · 1/2 = 1/400, p ({2, 6, 4, 6}) = 0.5 · 1/1296 + 0.5 · 1/400 = 53/32400 = 0.0016..., p (Hm | {2, 6, 4, 6}) = 0.5 · 1/400 / (0.5 · 1/400 + 0.5 · 1/1296) = 0.5 · 1/400 / (0.5 · 1/400 + 0.5 · 1/1296) a posteriori: p (Hm | {2, 6, 4, 6}) = 1296/1696 = 81/106 = 0.76...

Bayes mit gleichförmigen a priori Wahrscheinlichkeiten (uniform priors) man kann kürzen: p (Hi | R) = p (Hi)  p (R | Hi) / j p (Hj)  p (R | Hj) = p (R | Hi) / j p (R | Hj) p (Hi | R) = p (R | Hi)  p (Hi) / p (R)  p (R | Hi) konstant, hängt nicht von i ab. Will man nur die wahrscheinlichste Hypothese wissen, so reicht es, das maximale p (R | Hi) zu finden.

maximum likelihood Eine Eigenschaft sei in der Population normalverteilt, µ0 und 0 seien bekannt. Eine Intervention hat evtl. Einfluß auf den Mittelwert, nicht hingegen auf die Streuung. Eine Messung an n Individuen mit Intervention ergab die Meßwerte {xi}. Für jedes hypothetische µInt kann jetzt p ({xi} | µInt) errechnet werden: p ({xi} | µInt) = i=1...n N (µInt, 02, xi). Gesucht wird das hypothetische µInt, wo p (xi | µInt) maximal ist. In diesem einfachen Falle ist das maximal wahrscheinliche µ einfach gleich dem Mittelwert der xi.

Hausaufgabe Es gibt zwei Würfel: einen „guten“: p(1) = p(2) = ... = 1/6, und einen manipulierten: p(1) = ... = p(5) = 1/10, p(6) = 1/2. a priori: gleichförmig, p(Hm) = p(Hg ) = 0.5. R: {2}. Wie groß ist a posteriori p (Hm | R) ? neues a priori = a posteriori R: {6}. Wie groß ist p (Hm | R) jetzt? Wie groß wäre es nach R: {6} bei uniform priors? Wie groß ist die a posteriori Wahrscheinlichkeit bei uniform priors, R = {2,6} ?