Die Binomialverteilung

Slides:



Advertisements
Ähnliche Präsentationen
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Advertisements

Die Laufzeit von randomisierten (zufallsgesteuerten) Algorithmen hängt von gewissen zufälligen Ereignissen ab (Beispiel Quicksort). Um die Laufzeiten dieser.
Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Grundlagen der Wahrscheinlichkeitsrechnung - Verteilungen -
Stochastik in der Sek. II Sabrina Schultze.
Forschungsstrategien Johannes Gutenberg Universität Mainz
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Überprüfen von Verteilungen
Gliederung Definition des Wahrscheinlichkeitsbegriffes
Forschungsstatistik II
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-23.
Heute Prüfung der Produkt-Moment Korrelation
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Der Binomialtest Man habe einen wahren Anteil P.
K. Desch - Statistik und Datenanalyse SS05
Wahrscheinlichkeitstheorie
Statistische Methoden I
Konfidenzintervalle Intervallschätzung
Bitte mein Manuskript (liegt im Bibliotheksgebäude aus) nicht nach Außerhalb tragen. Die Weitergabe an Dritte (d. h. an Personen, die nicht Hörer der Vorlesung.
TESTS. Worum es geht Man möchte testen, ob eine bestimmte Annahme (Hypothese) über Parameter der Realität entspricht oder nicht. Beobachtung (Stichprobe)
Die Student- oder t-Verteilung
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Statistische Methoden I WS 2007/2008 Probeklausur Donnerstag, 31. Januar 2008 und Freitag, 1. Februar statt Vorlesungen -
Hier noch ein Beispiel zur bedingten Wahrscheinlichkeit Drei Personen A, B und C befinden sich im Gefängnis. Einer von den dreien ist zum Tode verurteilt,
Klausurtermin (laut Prüfungsamt) Probeklausur Freitag, 13. Juni 2003 statt Vorlesung.
Wahrscheinlichkeitstheorie. Statistische Methoden I WS 2009/2010 Einleitung: Wie schätzt man die Zahl der Fische in einem See? Zur Geschichte der Statistik.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt sich die folgende Tabelle:
Urnenmodelle. Die Normalverteilung (Gauß-Verteilung) (Gaußsche Glockenkurve)
Bedingte Wahrscheinlichkeiten
Grundbegriffe der (deskriptiven) Statistikder Wahrscheinlichkeitstheorie.
Statistische Methoden I WS 2004/2005 Probeklausur Freitag, 21. Januar statt Vorlesung - In 2 Wochen In 2 Wochen!
Verteilungsfunktion der Normalverteilung I. Verteilungsfunktion der Normalverteilung II.
Grundbegriffe der (deskriptiven) Statistik
Wahrscheinlich-keitsrechnung
Wiederholung und Beispiele
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Binomialverteilung: Beispiel
Wahrscheinlichkeitsrechnung
Histogramm/empirische Verteilung Verteilungen
Wahrscheinlichkeitsverteilung
STATISIK LV Nr.: 1375 SS März 2005.
Mittelwert und Standardabweichung
Wahrscheinlichkeit Zufallsexperiment:
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 1852 WS 2005/ Dezember 2005.
STATISIK LV Nr.: 0021 WS 2005/ Oktober 2005.
STATISIK LV Nr.: 1852 WS 2005/ Dezember 2005.
STATISIK LV Nr.: 1375 SS März 2005.
Wahrscheinlichkeitsrechnung
Die Wahrscheinlichkeit
Stetige Verteilungen Das Uhrenbeispiel Dichtefunktion
1 (C) 2002, Hermann Knoll, HTW Chur, Fachhochschule Ostschweiz Wahrscheinlichkeitsverteilung Lernziele: Wahrscheinlichkeitsverteilung und der Wahrscheinlichkeitsdichte.
Begriff der Zufallsgröße
Stochastik Grundlagen
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
K. Desch - Statistik und Datenanalyse SS05
K. Desch - Statistik und Datenanalyse SS05 Statistik und Datenanalyse 1.Wahrscheinlichkeit 2.Wahrscheinlichkeitsverteilungen 3.Monte-Carlo-Methoden 4.Statistische.
Thema der Stunde I. Die Form der Stichprobenkennwerteverteilung
K. Desch - Statistik und Datenanalyse SS05
Der Wiener Prozess und seltene Ereignisse
Die Gaussverteilung.
Aufgabe 5 Gegeben sei folgende Graphik mit den zugehörigen Merkmalsdefinitionen. – Erstellen Sie die zugehörige Kontingenztabelle der absoluten Häufigkeiten.
1. 2 Das Grundproblem der Beurteilenden Statistik ● Wir haben uns bisher mit Problemen der Wahrscheinlichkeitsrechnung beschäftigt: – Die Wahrscheinlichkeit.
 Präsentation transkript:

Die Binomialverteilung Man werfe eine Münze n mal und zähle die Häufigkeit k, mit der dabei „Kopf“ oben liegt. n = 4 n = 8 n = 32 Diskrete Verteilung, die mit zunehmendem n normal wird

Die Binomialverteilung Man wiederhole ein Zufallsexperiment n mal und bestimme die Häufigkeit k, mit der ein bestimmtes Ereignis E eintritt. Es sei: Bei n Wiederholungen kann das Ereignis „k-mal E“ auf genau Weisen eintreten. Da sich die einzelnen n über k Folgen gegenseitig ausschliessen, folgt mit dem Additionssatz: [Tafel-Entwicklung] Multiplikationssatz der WKn für unabhängige Versuche & Additionssatz auf die disjunkten Folgen anwenden!

Die Verteilungsfunktion der Binomialverteilung Die Wahrscheinlichkeit, daß höchstens k mal E auftritt, ist: Die Wahrscheinlichkeit, daß mindestens k+1 mal E auftritt, ist: Binomialverteilung: Diskrete Wahrscheinlichkeitsverteilung

Wahrscheinlichkeitsfunktion Definition: definiert die Wahrscheinlichkeitsfunktion, oder Wahrscheinlichkeitsdichtefunktion der Binomialverteilung. Sie tritt auf bei der Betrachtung der Anzahl der Erfolge einer Folge von unabhängi-gen Versuchen (Bernoulli-Folge), wobei p die Wahrscheinlichkeit des Erfolgs bei einem Versuch ist und q = 1- p gilt. n ist die Anzahl der Wiederholungen des Ver-suchs. p und n sind die beiden Parameter der Binomialverteilung Binomialverteilung: Diskrete Wahrscheinlichkeitsverteilung mit den Parametern p und n.

Verteilungsfunktion Definition: definiert die Verteilungsfunktion der Binomialverteilung. Allgemein: Die Verteilungsfunktion ist die kumulierte Wahrscheinlichkeitsdichtefunktion. Sie gibt die Wahrscheinlichkeit für Erfolge bis zu einer oberen Schranke x an. Verteilungsfunktion: Kumulierte Wahrscheinlichkeitsdichte- funktion bis zu einer Grenze x.

Verteilungsfunktion für diskrete Variable Es gilt für diskrete Zufallsvariablen: Allgemeine Eigenschaften sind: Mit der Verteilungsfunktion kann man die Wahrscheinlichkeit für beliebige Intervalle der Zufallsvariable bestimmen.

Die Poissonverteilung Sind einzelne Ereignisse selten, so kann die Wahrscheinlichkeit statt mit der Binomialverteilung über die Poissonverteilung ausgedrückt werden. Gilt: So approximiert die Possonverteilung die Binomialverteilung gut. Die poissonverteilung hat nur den Parameter l, der sowohl Mittelwert wie Varianz beschreibt. Wahrscheinlichkeitsfunktion: Die Poissonverteilung ist eine einfache Alternative zur Binomialverteilung für Seltene Ereignisse.

Vergleich: Binomial - Poisson Für Fast exakte Übereinstimmung beider Verteilungen.

Die Normalverteilung 20 25 30 35 40 45 50 55 60 65 70 75 80 x 0.01 0.02 0.03 0.04 f (x) Die Normalverteilung (Gauss‘sche Glockenkurve) ist eine symmetrische Verteilung. Ihre Form ist durch die Standardabweichung und den Mittelwert eindeutig festgelegt. Sie resultiert aus dem Modell unabhängiger sich überlagernder Zufallsfehler („Galton-Brett“) [Tafelbeispiel Galton, Binomial]

Die Normalverteilung 20 25 30 35 40 45 50 55 60 65 70 75 80 x 0.25 0.5 0.75 1.0 F(x) Die Verteilungsfunktion der Normalverteilung (Fläche unter der Normalkurve) kann man nicht auf eine geschlossene Form bringen. Sie ist aber für standardisierte Variablen (z-Standardisierung) austabelliert und elektronisch implementiert (z.B. in Excel).

Die Normalverteilung 68.26% 95.5% -3 -2 -1 1 2 3 0.1 0.2 0.3 0.4 z f(z) 95.5% -3 -2 -1 1 2 3 0.1 0.2 0.3 0.4 z f(z) Die Fläche unter der Kurve ist bei der Normalverteilung eine Funktion der Standardabweichung (in Einheiten von s angebbar) [Tabellenbenutzung, Excel, Aufgabenbeispiel zu IQ‘s]

z - Standardisierung f (z) 0.10 0.10 Wahrscheinlichkeitsdichte Wahrscheinlichkeitsdichte 0.05 0.05 z 0.00 0.00 -15 -10 -5 5 10 15 -3z -2z -1z 1z 2z 3z z - Standardisierung zur Überführung in Standardnormalverteilung

Wahrscheinlichkeitsbestimmung Verteilungsfunktion (Fläche der Dichtefunktion) zb za Eigenschaften  Benutze austabellierte Standardnormalverteilung

Approximation der Binomialverteilung Die Binomialverteilung hat ebenfalls Mittelwert und Varianz: Gilt so kann die Binomialverteilung durch die Normalverteilung approximiert werden. Dann gilt [Beispiele]

Fehler 1. und 2. Art H0 H1 Correct Rejection Miss (Fehler 2. Art) In der Population gilt H0 H1 Correct Rejection Miss (Fehler 2. Art) False Alarm (Fehler 1. Art) Hit H0 Entscheidung für H1 Hypothesenwahrscheinlichkeiten : bedingte WKn

Mittelwerteabstand aus WK Man klassifiziere man nach „Distraktor“ (H0) und „Target“ (H1) Tatsächlich gilt H0 H1 0.59 0.077 0.41 0.923 H0 Entscheidung für H1 1 1 Wie groß ist der Mittelwerteabstand der Likelihoodfunktionen ?

Mittelwerteabstand p = 0.59 z0 = F-1{0.59} = 0.23 Correct Rejection H0 – Verteilung: p = 0.59 z0 = F-1{0.59} = 0.23 Correct Rejection H1 – Verteilung: p = 0.59 z1 = F-1{0.077} = -1.43 Miss p = 0.077 z - Berechnung für jede einzelne Verteilung

Abstand in z- Standardisierung Es gilt: Ferner: Nun betrachte im z1 Wert den Abstand des Kriteriums k in Bezug auf m0: (standardisierter Abstand) Annahme: beide Likelihoodfunktionen haben dieselbe Varianz