Kapitel III: Stochastische Modelle im Januar haben wir behandelt: 12/3

Slides:



Advertisements
Ähnliche Präsentationen
Zufallsfelder Def. Zufallsfeld: Sei V eine endliche Menge (von Orten). Für jedes v V existiere eine (endliche) Menge X(v) von Zuständen x(v). Der Raum.
Advertisements

Kapitel III: Stochastische Modelle im Januar haben wir behandelt: 12
Statistische Aspekte der PSG
Fairness bei Spielen HU-Berlin Stochastik und ihre Didaktik
Masterstudiengang IE (Industrial Engineering)
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken X Christian Schindelhauer
Stochastik in der Sek. II Sabrina Schultze.
Gliederung Definition des Wahrscheinlichkeitsbegriffes
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-17.
Glücksspiele.
Vorlesung Informatik 3 Einführung in die Theoretische Informatik (04 – Automaten mit ε-Transitionen) Prof. Dr. Th. Ottmann.
Kapitel 6 Mehrstufige Zufallsexperimente
Portfoliomodelle Faktormodelle
Grundbegriffe der Wahrscheinlichkeitstheorie
PG 520 Intelligence Service – gezielte Informationen aus dem Internet
Christian Schindelhauer
1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität Algorithmen für Peer-to-Peer-Netzwerke Sommersemester Vorlesung.
Christian Schindelhauer
III: Stochastische Modelle 18. Anwendungen von Markov-Ketten
Statistische Methoden II SS 2008 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Makarenkostraße (Kiste)
Statistische Methoden I
III: Stochastische Modelle 15. Anwendungen von Markov-Ketten
Wahrscheinlichkeitstheorie. Statistische Methoden I WS 2002/2003 Zur Geschichte der Statistik I. Beschreibende Statistik 1. Grundlegende Begriffe 2. Eindimensionales.
Bitte mein Manuskript (liegt im Bibliotheksgebäude aus) nicht nach Außerhalb tragen. Die Weitergabe an Dritte (d. h. an Personen, die nicht Hörer der Vorlesung.
Statistische Methoden I WS 2007/2008 Donnerstag, 31. Januar 2008 und Freitag, 1. Februar 2008 Probeklausur - statt Vorlesungen -
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Neu Übungsgruppentausch:
4. Markov-Ketten 4.1. Übergangsmatrizen
Statistische Methoden I WS 2006/2007 Probeklausur Freitag, 26. Januar statt Vorlesung - Nächste Woche Nächste Woche!
Statistische Methoden I WS 2007/2008 Donnerstag, 31. Januar 2008 und Freitag, 1. Februar 2008 Probeklausur - statt Vorlesungen -
Statistische Methoden I WS 2007/2008 Probeklausur Donnerstag, 31. Januar 2008 und Freitag, 1. Februar statt Vorlesungen -
Hier noch ein Beispiel zur bedingten Wahrscheinlichkeit Drei Personen A, B und C befinden sich im Gefängnis. Einer von den dreien ist zum Tode verurteilt,
Wahrscheinlichkeitstheorie. Statistische Methoden I WS 2009/2010 Einleitung: Wie schätzt man die Zahl der Fische in einem See? Zur Geschichte der Statistik.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Urnenmodelle. Wahrscheinlichkeitsräume A. N. Kolmogorov Kolmogorov wurde (mehr zufällig, seine Mutter war auf der Durchreise) in Tambov,
Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt sich die folgende Tabelle:
Statistische Methoden I WS 2009/2010 Probeklausur Montag, 25. Januar statt Vorlesung -
Grundbegriffe der (deskriptiven) Statistikder Wahrscheinlichkeitstheorie.
Statistische Methoden I WS 2004/2005 Probeklausur Freitag, 21. Januar statt Vorlesung - In 2 Wochen In 2 Wochen!
Statistische Methoden II SS 2010 Vorlesung:Prof. Dr. Michael Schürmann Zeit: Freitag 13:15 -15:45 (Pause 14:45) Ort:HS Makarenkostraße (Kiste) Übungen.
Statistische Methoden II SS 2010 Vorlesung:Prof. Dr. Michael Schürmann Zeit: Freitag 13:15 -15:45 (Pause 14:45) Ort:HS Makarenkostraße (Kiste) Übungen.
Wahrscheinlichkeitstheorie. Laplacescher Wahrscheinlicheitsraum.
Folie 1 § 29 Determinanten: Eigenschaften und Berechnung (29.1) Definition: Eine Determinantenfunktion auf K nxn ist eine Abbildung (im Falle char(K) ungleich.
§ 29 Determinanten: Eigenschaften und Berechnung
Hidden Markov Modelle (HMM) (Rabiner Tutorial)
Wahrscheinlichkeitsrechnung
Eigenschaften der OLS-Schätzer
Histogramm/empirische Verteilung Verteilungen
Manfred Wahl Gewinnen mit Risiko Mgmt Heidelberger Investoren Runde 11. April 2007 Idee: van Tharp Institute, Technischer Analyse Kongress 2006, Frankfurt.
Erwartungswerte Erwartungswerte berechnen (bis 7 Trumpf anwendbar)
Wahrscheinlichkeitsverteilung
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Wahrscheinlichkeit Zufallsexperiment:
Kapitel 14 Trends und Unit-root-Tests
CRAPS altes englisches Glücksspiel mit zwei Würfeln
Formale Sprachen Reguläre Sprachen Rudolf FREUND, Marian KOGLER.
Idee: Maximum-Likelihood Schätzer
teWT313: Markov-Ketten, Erlang
Verlust + Verlust = Gewinn
Christian Schindelhauer Wintersemester 2006/07 3. Vorlesung
Christian Schindelhauer Wintersemester 2006/07 2. Vorlesung
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Stochastische Modelle in der Biologie (C. Bandt 2004) Die Folien sind nur Übersicht, Einzelheiten in der Vorlesung 1. Irrfahrten mit Endzuständen Definition:
Stochastik I Erwartungswert
Stochastische Übergangsmatrizen zehn Fragen zum Basiswissen
Vorbereitungsseminar zum fachdidaktischen Blockpraktikum im SS 2011
Kleines 1x1 ABCD Aufgaben Kleines 1x1 A · 8 = Lösung.
 Präsentation transkript:

Kapitel III: Stochastische Modelle im Januar haben wir behandelt: 12/3 Kapitel III: Stochastische Modelle im Januar haben wir behandelt: 12/3. Binomialverteilung, Wurzel-n-Regel 14. Poisson- und Normalverteilung 15. Testen und Schätzen (erster Einblick) Abschnitt 15 wird im Mai weitergeführt jetzt Fortsetzung des Kapitels mit 16. Zeitreihen (auch nur Einführung) 17. Irrfahrten und Markov-Ketten

17. Irrfahrten und Markov-Ketten 17.1 Irrfahrten mit Endzuständen 17.2 Bezeichnungen und Mittelwertsregeln 17.3 Markov-Ketten und Matrizen 17.4 Verteilungen und Matrixmultiplikation

17.1 Irrfahrten mit Endzuständen Definition: eine Irrfahrt ist gegeben durch 1) eine Menge M von Zuständen 2) Übergangswahrscheinlichkeiten zwischen den Zuständen 3) einen Startzustand

Beispiel 1: Die Maus in der Wohnung Beispiel 1: Die Maus in der Wohnung! Sie geht jeweils von einem Zimmer zu einem zufälligen Nachbarzimmer. Wie groß ist ihre Gewinnchance ? 5 4 KATZE Verlustzustand 1 MAUS Startzustand 2 3 KÄSE Gewinnzustand

Die Zustände sind hier die Zimmer 1 bis 5 Der Startzustand ist 1 Die Übergangswahrscheinlichkeiten sind Die Zustände 3 und 4 sind Endzustände: die Maus verbleibt mit W. 1 dort. Frage: welchen Endzustand erreicht die Maus eher?

Der Übergangsgraph zeigt Nachbarzustände: 5 4 1 2 3 Übergangsmatrix:

Beispiel 2: Die Irrfahrt auf {0, Beispiel 2: Die Irrfahrt auf {0,...,m}als einfachstes Modell für ökonomische Zeitreihen 2 Spieler A und B spielen mehrere Runden eines Glücksspiels, bei dem A die Gewinnw. p und B die Gewinnw. q=1-p hat. Einfachster Fall Münzwurf, p=q=1/2 . Der Verlierer zahlt jeweils 1 Euro an den Gewinner. A und B beginnen mit a bzw. b Euro Startkapital und spielen solange, bis einer pleite ist und der andere m=a+b Euro hat. Der Zustand ist das Kapital von A. Wie groß sind die Gewinnchancen für A ? p p p 1 0 1 2 ........ m 1 q q q

17.2 Allgemeine Bezeichnungen n= 0, 1, 2, ... Zeitparameter i,,j,k Zustände X = X (w) Zustand des Systems zur Zeit n (Zufallsgröße) p = P [ X = j | X = i ] Übergangswahrscheinlichkeiten sollen nicht vom Zeitpunkt n abhängen n n i j n+1 n Im Beispiel: X -- Kapital von A zum Zeitpunkt n p = p für i < m p = q für i > 0 p = p = 1 d.h. 0 und m sind Endzustände i i+1 i i-1 00 mm

Die Mittelwertsregel für Gewinnwahrscheinlichkeiten i fester Endzustand ‚‚Gewinn´´ l andere Endzustände ‚‚Verlust´´ j,k beliebige Zustände g Gewinnw. bei Start im Zustand k k für alle Zustände k (Summierung über Nachbarn) für den Gewinnzustand für die anderen Endzustände

Markov-Eigenschaft bedeutet: nur die Gegenwart bestimmt die Zukunft, keine weiteren Einflüsse der Vergangenheit Beweis der Mittelwertsregel durch Formel für totale Wahrscheinlichkeit Berechnung der Gewinnchancen für die Maus mittels dieser Formel Berechnung der Gewinnchancen von A im Beispiel 2 für p=1/3, a=3, b=2.

Lösung Ruinproblem für faires Spiel p=1/2 Gewinn und Verlust für 0<k<m Aus dieser Gleichung ergibt sich, dass die Differenz aufeinander folgender Werte von g konstant ist, also g eine lineare Funktion von k ist, d.h. g(k)=a +bk. Aus der ersten Bedingung folgt g(k)= k/m .

Lösung Ruinproblem für beliebiges p Gewinn und Verlust für 0<k<m Wir setzen r=q/p . Die Differenzen aufeinander folgender Werte von g bilden eine geometrische Folge. Daraus ergibt sich

Die Mittelwertsregel für die durchschnittliche Spieldauer t durchschnittliche Spieldauer bei Start im Zustand k d.h. Anzahl der Schritte bis zum Erreichen irgendeines Endzustands i k für alle Zustände k für Endzustände i

Beispiel 3: Die Warteschleife W E q p 1 Für p=1/6 Warten auf erste Sechs beim Würfelspiel Bei Wartung von Maschinen: p Ausfallwahrscheinl. Monteur wartet auf seinen Einsatz Bei freilebenden Tieren: p Sterbew., q Überlebensw. Wesentliche Frage: mittlere Lebensdauer / Wartezeit

17.3 Markov-Ketten und Matrizen Eine Markov-Kette ist dasselbe wie eine Irrfahrt. Bei Irrfahrten studiert man die Bewegung eines einzelnen Teilchens, die zeitliche Aufeinanderfolge von Zuständen. Bei den Markov-Ketten interessiert mehr die Gesamtheit aller möglichen Zustände zu einem festen Zeitpunkt, die sogenannte Verteilung des Zustands.

Beispiel 4: Krankenstand eines Betriebs Beispiel 4: Krankenstand eines Betriebs. Täglich erkranken 5 % der Gesunden, und 20 % der Kranken werden wieder gesund. Welcher Krankenstand ergibt sich bei diesen Bedingungen ? 0.8 0.05 0.95 Übergangsgraph: G K 0.2 Übergangsmatrix: Ähnliches Beispiel: Wählerwanderung (Zustände FDP,...)

Beispiel 5: Mädchen und Jungen in Familien mit n Kindern (p=0.482) p p p 0 1 2 n q q q q=1-p W. für k Mädchen bei n Kindern Binomialverteilung ! Ähnliche Beispiele: Bernsteinsammler, Gütekontrolle, Meinungsumfrage (wer wählt? p= Wahlbeteiligung)

17.4 Begriff der Verteilung n= 0, 1, 2, ... Zeitparameter wird fixiert i= 1,....,m Zustände u = (u ,....,u ) Verteilung des Systems zur Zeit n n n n 1 m Die Verteilung gibt an, welcher Anteil der Fälle sich zur Zeit n in den einzelnen Zuständen befindet. Dies ist das gleiche Konzept wie die Verteilung von Merkmalen.

Matrixmultiplikation und Verteilungen von Markov-Ketten Die Verteilung zum nächsten Zeitpunkt ergibt sich jeweils aus der gegenwärtigen Verteilung durch Matrixmultiplikation mit der Übergangsmatrix P. Summierung über Zustände n Folgerung: die Matrix P enthält die n-Schritt Übergangswahrscheinl.

Beispiele zur Matrix-Multiplikation Berechnung der zwei ersten Tage im Beispiel Krankenstand Matrix und Rechnung für die Warteschleife Für größere Matrizen Computer verwenden, dazu Beispiele