Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-23
Heute 1.Der Satz von Bayes & Hypothesenwahrscheinlichkeiten 2.Die Binomialverteilung 3.Approximation der Binomialverteilung durch die Normalverteilung 4.Anwendungen NV auf Hypothesen
Ankündigungen 1.Versuch: Entdecken von Merkmalen in Zufallsfeldern. Es fehlen noch 16 VPn: Umfang 10 Stunden dafür gibt es 5 VPn Stunden + 30 Euro) Bitte Interessenten in Liste am schwarzen Brett Experimentelle Psychologie eintragen
Die Binomialverteilung Man werfe eine Münze n mal und zähle die Häufigkeit k, mit der dabei Kopf oben liegt. Diskrete Verteilung, die mit zunehmendem n normal wird n = 4 n = 8n = 32 [Mathematica-Beispiele]
Die Binomialverteilung Man wiederhole ein Zufallsexperiment n mal und bestimme die Häufigkeit k, mit der ein bestimmtes Ereignis E eintritt. Multiplikationssatz der WKn für unabhängige Versuche & Additionssatz auf die disjunkten Folgen anwenden! Es sei: Bei n Wiederholungen kann das Ereignis k-mal E auf genau Weisen eintreten. Da sich die einzelnen n über k Folgen gegenseitig ausschliessen, folgt mit dem Additionssatz: [Tafel-Entwicklung]
Die Verteilungsfunktion der Binomialverteilung Binomialverteilung: Diskrete Wahrscheinlichkeitsverteilung Die Wahrscheinlichkeit, daß höchstens k mal E auftritt, ist: Die Wahrscheinlichkeit, daß mindestens k+1 mal E auftritt, ist:
Approximation der Binomialverteilung Die Binomialverteilung hat ebenfalls Mittelwert und Varianz: Giltso kann die Binomialverteilung durch die Normalverteilung approximiert werden. Dann gilt [Beispiele]
z - Standardisierung Wahrscheinlichkeitsdichte z - Standardisierung zur Überführung in Standardnormalverteilung Wahrscheinlichkeitsdichte -3z-2z-1z01z2z3z f (z) z
Wahrscheinlichkeitsbestimmung Benutze austabellierte Standardnormalverteilung Verteilungsfunktion (Fläche der Dichtefunktion) Eigenschaften zbzb zaza
Fehler 1. und 2. Art In der Population gilt Hypothesenwahrscheinlichkeiten : bedingte WKn Correct Rejection Miss (Fehler 2. Art) False Alarm (Fehler 1. Art) Hit H0H0 H1H1 H0H0 H1H1 Entscheidung für
Mittelwerteabstand aus WK Tatsächlich gilt Wie groß ist der Mittelwerteabstand der Likelihoodfunktionen ? H0H0 H1H1 H0H0 H1H1 Entscheidung für Man klassifiziere man nach Distraktor (H0) und Target (H1) 11
Mittelwerteabstand z - Berechnung für jede einzelne Verteilung H0 – Verteilung: p = 0.59 z 0 = F -1 {0.59} = 0.23 Correct Rejection H1 – Verteilung: p = 0.59 z 1 = F -1 {0.077} = Miss p = 0.077
Abstand in z- Standardisierung Annahme: beide Likelihoodfunktionen haben dieselbe Varianz Nun betrachte im z 1 Wert den Abstand des Kriteriums k in Bezug auf 0 : Es gilt: Ferner: (standardisierter Abstand)