Alternativ: Direkte schrittweise Berechnung dieser sogenannten gemeinsamen Wahrscheinlichkeiten auf Grund der Einzelwahrscheinlichkeiten Wahrscheinlichkeit.

Slides:



Advertisements
Ähnliche Präsentationen
Zufallsfelder Def. Zufallsfeld: Sei V eine endliche Menge (von Orten). Für jedes v V existiere eine (endliche) Menge X(v) von Zuständen x(v). Der Raum.
Advertisements

Stochastik und Markovketten
Die Laufzeit von randomisierten (zufallsgesteuerten) Algorithmen hängt von gewissen zufälligen Ereignissen ab (Beispiel Quicksort). Um die Laufzeiten dieser.
Polynomial Root Isolation
Stochastik in der Sek. II Sabrina Schultze.
Numerik partieller Differentialgleichungen
Gliederung Definition des Wahrscheinlichkeitsbegriffes
Forschungsstatistik II
Der Binomialtest Man habe einen wahren Anteil P.
Kapitel 6 Mehrstufige Zufallsexperimente
Wahrscheinlichkeitstheorie
Statistische Methoden I
Statistische Methoden II SS 2007 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Statistische Methoden II SS 2008
Bitte mein Manuskript (liegt im Bibliotheksgebäude aus) nicht nach Außerhalb tragen. Die Weitergabe an Dritte (d. h. an Personen, die nicht Hörer der Vorlesung.
Statistische Methoden I WS 2007/2008 Donnerstag, 31. Januar 2008 und Freitag, 1. Februar 2008 Probeklausur - statt Vorlesungen -
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Allgemein definiert man:. Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt.
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Neu Übungsgruppentausch:
II. Wahrscheinlichkeitstheorie
Wahrscheinlichkeitstheorie. Statistische Methoden I WS 2009/2010 Einleitung: Wie schätzt man die Zahl der Fische in einem See? Zur Geschichte der Statistik.
III. Induktive Statistik
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Wahrscheinlichkeitsräume. A. N. Kolmogorov Kolmogorov wurde (mehr zufällig, seine Mutter war auf der Durchreise) in Tambov, Russland, geboren.
Die Vorlesung Statistische Methoden I fällt morgen ( ) aus! Zeit: 14:15 Ort: Hörsaal Loefflerstraße Diese Vorlesung wird am nächsten Donnerstag.
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird verlegt. Der Nachholtermin wird noch bekannt gegeben.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Urnenmodelle. Wahrscheinlichkeitsräume A. N. Kolmogorov Kolmogorov wurde (mehr zufällig, seine Mutter war auf der Durchreise) in Tambov,
Extra-SPSS-Kurse Durchführung: Birte Holtfreter Termine Di Mi Mi Ort PC-Pool Loefflerstarße.
Wahrscheinlichkeitstheorie. Statistische Methoden I WS 2002/2003 Zur Geschichte der Statistik I. Beschreibende Statistik 1. Grundlegende Begriffe 2. Eindimensionales.
Urnenmodelle. Die Normalverteilung (Gauß-Verteilung) (Gaußsche Glockenkurve)
Bedingte Wahrscheinlichkeiten
Grundbegriffe der (deskriptiven) Statistikder Wahrscheinlichkeitstheorie.
Statistische Methoden I WS 2004/2005 Probeklausur Freitag, 21. Januar statt Vorlesung - In 2 Wochen In 2 Wochen!
Verteilungsfunktion der Normalverteilung I. Verteilungsfunktion der Normalverteilung II.
Statistische Methoden I WS 2002/2003 Probeklausur Freitag, 13. Dezember statt Vorlesung - Nächsten Freitag!!!
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Vorlesung Biometrie für Studierende der Veterinärmedizin Zur Kommunikation von Wahrscheinlichkeiten Relative Häufigkeiten sind grundsätzlich.
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Binomialverteilung: Beispiel
Histogramm/empirische Verteilung Verteilungen
1.3. Kombinatorische Zählprobleme Zählstrategien
Wahrscheinlichkeitsrechnung Grundbegriffe
§24 Affine Koordinatensysteme
Ausgleichungsrechnung I
Wahrscheinlichkeitsverteilung
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Definitionen für Wahrscheinlichkeiten
Wahrscheinlichkeit Zufallsexperiment:
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0021 WS 2005/ Oktober 2005.
STATISIK LV Nr.: 1852 WS 2005/ Dezember 2005.
Wahrscheinlichkeitsrechnung
Potenzen und Wurzeln Zusammenfassung
Stetige Verteilungen Das Uhrenbeispiel Dichtefunktion
deterministisches chaos
1 (C) 2002, Hermann Knoll, HTW Chur, Fachhochschule Ostschweiz Wahrscheinlichkeitsverteilung Lernziele: Wahrscheinlichkeitsverteilung und der Wahrscheinlichkeitsdichte.
teWT303: Bedingte Wahrscheinlichkeit
1. 2. Berechnen von Wahrscheinlichkeiten
Tutorium Statistik II Übung IV Philipp Schäpers Mi – 11.45
deterministisches chaos
K. Desch - Statistik und Datenanalyse SS05
Die Binomialverteilung
Kombinatorik ist die Lehre vom Bestimmen der Anzahlen
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Mittel- und Erwartungswert
REKURSION + ITERATION.
 Präsentation transkript:

Alternativ: Direkte schrittweise Berechnung dieser sogenannten gemeinsamen Wahrscheinlichkeiten auf Grund der Einzelwahrscheinlichkeiten Wahrscheinlichkeit der Ereignisse im Merkmals-Stichprobenraum Das führt i.a. zu einer sparsameren Darstellung der Ereignisse, die Anzahl der Ausprägungs- konstellationen können höchstens sein. Die Menge dieser Ausprägungskonstellationen ist dann der (Merkmals-)Stichprobenraum. Bisher wurden die Wahrscheinlichkeiten jeweils für alle physikalisch realisierbaren Elementkonstellationen unter der Gleichwahrscheinlichkeitsannahme des klassischen Wtsbegriffs. Auch beim Simulationsexperiment musste bei der Zufallsauswahl der Elemente die gleiche Chance angestrebt werden; das führt allerdings zu riesig vielen Konstellationen (bei Ziehen mit Zurücklegen etwa im diskreten Fall zu, das wären bei 55 Elementen in der Population insgesamt Elementarergebnisse für eine Stichprobengröße von nur 4 ). Bei eingeschränkten Fragestellungen kann der Stichprobenraum gravierend reduziert werden; hier auf die Merkmals-Ausprägungskonstellationen. Fragestellungsgeleitete Reduktion des Stichprobenraums: Diese als gemeinsame Wten bezeichneten Werte können auch schrittweise direkt berechnet werden. P(X 1 =0, X 2 =0, X 3 =0, X 4 =0) =, als das Produkt der Einzelwahrscheinlichkeiten ·· · Diese gemeinsame Wt kann auch als Produkt aus den Einzelwahrscheinlichkeiten dargestellt werden: P(X 1 =x 1, X 2 =x 2,…, X n =x n ) = P(X 1 =x 1 ) · P(X 2 =x 2 ) · ··· · P(X n =x n ). Das bedeutet im vorigen Spezialfall nur, den Bruch als Produkt von Teilbrüchen zu schreiben. g 1 g 1 N N ······ Angenommen, eine Urne mit N Kugeln enthalte g 1 Kugeln mit der Ausprägung x 1, dann ist die Wahrscheinlichkeit, dass bei allen n Zügen x 1 resultiert, P(X 1 =x 1, X 2 =x 1,…, X j =x 1,…, X n =x 1 ) g 1 · g 1 · ··· · g 1 · ··· · g 1 N · N· ··· · N · ··· · N Darstellung der Wt beim Ziehen MIT Zurücklegen Günstige 10 Mögliche Fälle =10000 / / Mögliche Fälle /10 Die Urne enthalte 7 1-Kugeln und 3 0-Kugeln. Die Beschreibung der Merkmalskonstellation 0010 hat die Urlistenwerte x 1 (=0), x 2 (=0), x 3 (=1), und x 4 (=0) ; das ergibt x-Verteilungswerte: x 1, x 1, x 2, x 1. Zur Beschreibung des zufälligen Ziehens werden die Stichprobenvariablen verwendet: X 1 = 0, X 2 = 0, X 3 =1, X 4 = 0. Beispiel: Bei dichotomen Merkmalen ist I=2; bei einer Vierer- Stichprobe gibt es 16 Konstellationen: { } =, das ist der Merkmals-Stichprobenraum. i xixi P(X 1 =0, X 2 =0, X 3 =0, X 4 =0) = = Zuerst soll das Ziehen MIT Zurücklegen behandelt werden. Berechnen der Anzahl günstiger Fälle: Astmultiplikationsregel. Berechnen der gemeinsamen Wt: Astmultiplikationsregel. P(X 1 =x 1 ) P(X 1 =x I ) P(X 2 =x 1 ) P(X 2 =x I ) P(X 2 =x 1 ) P(X 2 =x I ) P(X n =x 1 ) P(X n =x I ) P(X n =x 1 ) P(X n =x I ) P(X n =x 1 ) P(X n =x I ) P(X n =x 1 ) P(X n =x I ) Die Wt für eine Konstellation P(X 1 =x 1, X 2 =x 2,…, X j =x j,…, X n =x n ) kann durch den Rückgriff auf das ursprüngliche Urnenmodell berechnet werden: Günstige / Mögliche Fälle. Gemeinsame Wten Zur Beschreibung der Merkmalskonstellationen bei Ziehungen genügen die Gleichheiten in Stichprobenvariablen:. Dabei sind die X j jeweils die Stichprobenvariablen des j. Ziehens, die Werte (aus Urliste) stehen stellvertretend für bestimmte Ausprägungen x 1, x 2,…, x i,…, x I (aus Verteilung) bei der j. Ziehung. xjxj X 1 = x 1, X 2 = x 2,..., X j = x j,..., X n = x n P(X 1 =x I, X 2 =x 1,…, X n =x 1 ) P(X 1 =x I, X 2 =x 1,…, X n =x I ) P(X 1 =x I, X 2 =x I,…, X n =x 1 ) P(X 1 =x I, X 2 =x I,…, X n =x I ) P(X 1 =x 1, X 2 =x I,…, X n =x 1 ) P(X 1 =x 1, X 2 =x I,…, X n =x I ) P(X 1 =x 1, X 2 =x 1,…, X n =x 1 ) P(X 1 =x 1, X 2 =x 1,…, X n =x I )

Alternativ: Direkte schrittweise Berechnung der gemeinsamen Wahrscheinlichkeiten auf Grund der Einzelwahrscheinlichkeiten x1x1 xIxI x1x1 x1x1 x1x1 xIxI xIxI xIxI Darstellung der gemeinsamen Wten beim Ziehen OHNE Zurücklegen. P(X1=x1)P(X1=x1) P(X1=xI)P(X1=xI) P(X 2 =x 1 | X 1 =x 1 ) P(X 2 =x I | X 1 =x 1 ) P(X 2 =x 1 | X 1 =x I ) P(X 2 =x I | X 1 =x I ) P(X n =x 1 | X 1 =x 1 …) P(X n =x I | X 1 =x 1 …) P(X n =x 1 | X 1 =x 1 …) P(X n =x I | X 1 =x I …) P(X n =x 1 | X 1 =x I …) Die Urne enthält 7 1-Kugeln und 3 0-Kugeln. Beim Ziehen OHNE Zurücklegen verändert sich die Zusammensetzung der Urne. Die gemeinsame Wten bezeichneten Werte können auch hier schrittweise berechnet werden: P(X 1 =0, X 2 =0, X 3 =0, X 4 =0) =, ·· · P(X 1 =0, X 2 =0, X 3 =0, X 4 =0) = = 0 / · 2 · 1 · 0 10 · 9 · 8 · 7 Die Wahrscheinlichkeit P(X 1 = 0, X 2 = 0, X 3 = 0, X 4 =0) ist dann nach Wts- Definition gleich dem Bruch: Anzahl günstige / Anzahl mögliche Fälle Günstige Fälle Mögliche Fälle =5040 / 5040 / Mögliche /10 /9 /8 /7 /9 /10 /9 /8 /8/8 /7 /8 /7 /8 P(X 2 = 1) = 0.70, P(X 3 = 1) = 0.70, P(X 4 = 1) = P(X 1 = 1) = 0.70,Die Randwahrscheinlichkeiten sind: Randwten sind die Wten, die nur Teile der Konstellation enthalten, z.B. P(X 1 =x i ), P(X 2 =x i ), usw. d.h. über alle gemeinsamen Wten summieren, für die X j = x i gilt. 12n n21 iii iniji2i1ij )xX,,xX,,xX,xX(P...)xX(P P(X 1 =0) ·P(X 2 =0 | X 1 =0) · P(X 2 =0 | X 1 =0, X 2 =0) · P(X n =0 | X 1 =0, X 2 =0, X 3 =0). als Produkt der einzelnen bedingten Wten = Gemeinsame Wten P(X 1 =x I, X 2 =x 1,…, X n =x 1 ) P(X 1 =x I, X 2 =x 1,…, X n =x I ) P(X 1 =x I, X 2 =x I,…, X n =x 1 ) P(X 1 =x I, X 2 =x I,…, X n =x I ) P(X 1 =x 1, X 2 =x I,…, X n =x 1 ) P(X 1 =x 1, X 2 =x I,…, X n =x I ) P(X 1 =x 1, X 2 =x 1,…, X n =x 1 ) P(X 1 =x 1, X 2 =x 1,…, X n =x I ) Urnenzustand feststellen, in Abhängigkeit von der Vorgeschichte. Randwahrscheinlichkeiten Die gemeinsame Wt kann auch als Produkt aus einzelnen Wten dargestellt werden; hier verändert sich die Urnenzusammensetzung je nach der Vorgeschichte; diese Vorgeschichte wird unter der Bezeichnung Bedingung, unter der gezogen wird, zusammengefasst: Bedingte Wahrscheinlichkeiten Die Wt für eine Konstellation P(X 1 =x 1, X 2 =x 2,…, X j =x j,…, X n =x n ) kann durch den Rückgriff auf das ursprüngliche Urnenmodell berechnet werden: Günstige / Mögliche Fälle. Die Wten, die Bedingungen enthalten, heißen bedingte Wahrscheinlichkeiten. P(X 1 =x 1 ) · P(X 2 =x 2 | X 1 =x 1 ) · ··· ··· · P(X n =x n | X 1 =x 1, X 2 =x 2,…, X n-1 =x n-1 ). P(X 1 =x 1, X 2 =x 2,…, X n =x n ) =

2 1 Beispiel: n=2, Bei der bivariaten Normalverteilung ist die gemeinsame Dichte die Höhe des Berges an jeder Stelle der (x 1,x 2 ) –Koordinaten. Unter Unabhängigkeit kann diese Höhe als Produkt den eindimensionalen Dichten f( x 1 ) und f( x 2 ) berechnet werden. x1x1 xIxI x1x1 x1x1 x1x1 xIxI xIxI xIxI Unabhängigkeit von Zufallsvariablen P(X1=x1)P(X1=x1) P(X1=xI)P(X1=xI) P(X 2 =x 1 | X 1 =x 1 ) P(X 2 =x I | X 1 =x 1 ) P(X 2 =x 1 | X 1 =x I ) P(X 2 =x I | X 1 =x I ) P(X n =x 1 | X 1 =x 1 …) P(X n =x I | X 1 =x 1 …) P(X n =x 1 | X 1 =x 1 …) P(X n =x I | X 1 =x I …) P(X n =x 1 | X 1 =x I …) Gem.Wten /10 /9 /8 /7 /9 /10 /9 /8 /8/8 /7 /8 /7 /8 Für die Unabhängigkeit mehrerer Zufallsvariablen gilt: alle bedingten Wahrscheinlichkeiten sind gleich den entsprechenden Randwahrscheinlichkeiten. Definition: (Stochastische) Unabhängigkeit von Zufallsvariablen X 1 und X 2 sind unabhängig, genau dann wenn P(X 2 =x 2 | X 1 =x 1 ) P(X 2 =x 2 ) für alle x 1 und x 2 d.h. die bedingten Wten sind gleich den entsprechenden Randwahrscheinlichkeiten = Unter Verwendung der Multiplikationseigenschaft der kann die Unabhängigkeit von X 1 und X 2 auch so definiert werden: P(X 1 =x 1, X 2 =x 2 ) = P(X 1 =x 1 )P(X 2 =x 2 ) Bei Unabhängigkeit der Zufalls- variablen X 1, X 2,…, X n gilt: P(X 1 =x 1, X 2 =x 2,…, X n =x n ) = P(X 1 =x 1 ) P(X 2 =x 2 ) … P(X n =x n ) Die gemeinsamen Wten sind das Produkt von Randwahrscheinlichkeiten Gemeinsame Wten P(X 1 =x I, X 2 =x 1,…, X n =x 1 ) P(X 1 =x I, X 2 =x 1,…, X n =x I ) P(X 1 =x I, X 2 =x I,…, X n =x 1 ) P(X 1 =x I, X 2 =x I,…, X n =x I ) P(X 1 =x 1, X 2 =x I,…, X n =x 1 ) P(X 1 =x 1, X 2 =x I,…, X n =x I ) P(X 1 =x 1, X 2 =x 1,…, X n =x 1 ) P(X 1 =x 1, X 2 =x 1,…, X n =x I ) P(X i = 0) P(X i = 1) = ? = ? = ? = ? = ? = ? = ? = ? Gem.Wten /10 OHNE Zurücklegen Bedingte Wahrscheinlichkeiten an den Zweigen Randwahrscheinlichkeiten P(X 2 =x I ) P(X 2 =x 1 )... P(X n =x I ) P(X n =x 1 )... P(X 1 =x I ) P(X 1 =x 1 )... MIT Zurücklegen Verallgemeinerung auf stetig verteilte Variablen: Die Gleichheitszeichen müssen durch Kleiner-Gleichzeichen ersetzt werden. = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? = ? Die gemeinsame Dichte ist bei Unabhängigkeit ebenfalls das Produkt der Randdichten: f(x 1,x 2,..., x n ) = f(x 1 )f(x 2 )... f(x n ). = ? = ? = ? = ?

01 2 n Binomialverteilung Beispiel: n=4; die Wahrscheinlichkeit eines Erfolgs im einzelnen Versuch sei. Gesucht ist die Wahrscheinlichkeit einer bestimmten Anzahl von Erfolgen k. Alle möglichen Ergebnisse können mit Hilfe eines Baumes dargestellt werden: (1- ) 4 1 (1- ) 3 2 (1- ) 2 1 (1- ) 3 2 (1- ) 2 3 (1- ) 1 1 (1- ) 3 2 (1- ) 2 3 (1- ) 1 2 (1- ) 2 3 (1- ) 1 4 (1- ) 0 Gem.Wten Anzahl Erfolge k ( ) = k = 0 k = 1 k = 3 k = 4 k = 5 k = 6 k = 7 k = Wie viele Äste im Baum haben eine bestimmte Anzahl von Erfolgen k? Für einen Ast mit k Erfolgen ist die Wt gleich: k (1- ) 4-k Für k=2: insgesamt 6. Die 1 kann je 2 Stellen der 4 möglichen Positionen stehen. Das entspricht der Einteilung von 4 Elementen in 2 Zweiergruppen, das ist: 2 4 (), P(Anzahl = 1) = 141 )1( 1 4 () Daher: P(Anzahl = 0) = 040 )1( 0 4 () P(Anzahl = 2) = 242 )1( 2 4 (), P(Anzahl = k) = k4k )1( k 4 () Für k=0: insgesamt 1. Eins ist auch. 0 4 () Was sind die Binomischen Formeln? (a+b) 2 = 1a 2 b 0 + 2a 1 b 1 + 1a 0 b 2 (a+b) 3 = 1a 3 b 0 + 3a 2 b 1 + 3ab 2 + 1a 0 b 3 (a+b) 4 =1a 4 b 0 + 4a 3 b 1 + 6a 2 b 2 + 4ab 3 + 1a 0 b 4 Binomial- koeffizient knk nn )1( k n )X(P)kX(P n k 1: 0 n mit, k)!(nk!k! n! : k n PASCALsches Dreieck (a+b) 1 = 1a 1 b 0 + 1a 0 b 1 (a+b) 0 = 1a 0 b 0 Für k=1: insgesamt 4. Die 1 kann an 1., 2., 3. oder 4. Stelle stehen: 1 4 ().).