Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Stochastik und Markovketten 1 Zentrum für Bioinformatik der Universität des Saarlandes WS 2002/2003.

Ähnliche Präsentationen


Präsentation zum Thema: "Stochastik und Markovketten 1 Zentrum für Bioinformatik der Universität des Saarlandes WS 2002/2003."—  Präsentation transkript:

1 Stochastik und Markovketten 1 Zentrum für Bioinformatik der Universität des Saarlandes WS 2002/2003

2 Stochastik und Markovketten 2 Viele Fragestellungen der Bioinformatik lassen sich auch heutzutage gar nicht oder nicht schnell genug exakt beantworten Oft kann man aber Aussagen über die wahrscheinlichsten Antworten auf solche Fragen machen Das nötige Wissen liefert uns die Wahrscheinlichkeitstheorie, die auch Stochastik genannt wird Warum Stochastik?

3 Stochastik und Markovketten 3 Was brauchen wir dafür? Um über Wahrscheinlichkeiten reden zu können, brauchen wir –eine Menge von Ereignissen (was ist wie wahrscheinlich?) –ein Maß für die Wahrscheinlichkeit eines Ereignisses (wie wahrscheinlich ist etwas?) –einige Rechenregeln für diese Wahrscheinlichkeiten (was mache ich mit den Wahrscheinlichkeiten?) Beispiel: Werfen eines (fairen) Würfels –Jede gewürfelte Zahl stellt ein Ereignis dar Ereignisse = {1..6} –Jede Zahl ist gleich wahrscheinlich! Wenn wir sehr oft würfeln sollte daher jede Zahl in ca. 1/6. der Fälle gewürfelt werden! (1/ )

4 Stochastik und Markovketten 4

5 5 Ein wenig genauer… Zuerst definieren wir uns eine Menge E von sog. Elementarereignissen (z.B. die Menge E={1..6} für die Seiten des Würfels) Wir definieren dann die Menge der Ereignisse F folgendermaßen: 1.E 2 F (alle Elementarereignisse sind Ereignisse) 2.Wenn A 2 F und B 2 F, dann liegen auch A [ B, A Å B, A c und B c in F 3.(technische Voraussetzung an unendliche Summen und Produkte in F) Ein Ereignis tritt ein, wenn ein in ihm enthaltenes Elementarereignis eintritt

6 Stochastik und Markovketten 6 Unabhängige Ereignisse: p( A und B ) = p( A ) ¢ p( B ) Zusammengesetzte Ereignisse: p( A ) = e 2 (A Å E) p(e) Beispiel: wir werfen eine faire Münze zwei mal hintereinander. Elementarereignisse (Z=Zahl, K=Kopf): E = {ZZ, ZK, KZ, KK} Zwei mögliche Ereignisse aus F: 1. ={ZK, KZ} (genau ein mal Zahl geworfen) 2. ={KK, ZK, KZ} (mindestens ein mal Kopf geworfen) »p(Z) = p(K) = 1/2 »p( ) = 1/2 ¢ 1/2 + 1/2 ¢ 1/2 = 1/2 »p( ) = 3/4

7 Stochastik und Markovketten 7 Bedingte Wahrscheinlichkeiten Was passiert, wenn zwei Ereignisse sich gegenseitig beeinflussen? Angenommen, beeinflusst. Wenn eintritt, dann gilt für die Wahrscheinlichkeit von der Satz von Bayes: Wenn {B k |k=1..n} eine Partition von F ist, d.h. jedes Ereignis in F liegt in genau einem B i, dann gilt zusätzlich:

8 Stochastik und Markovketten 8 Bedingte Wahrscheinlichkeiten, Beispiel Der in Deutschland üblicherweise ver- wendete AIDS-Test ELISA hat folgende typische Eigenschaften: –Sensitivität: bei einem an AIDS er- krankten Patienten erkennt der Test in ca % der Fälle die Krankheit richtig –Spezifizität: ist der Patient nicht erkrankt, erkennt der Test dies in ca % der Fälle In Deutschland sind ca % der jährigen Männer, die keiner Risikogruppe angehören, an AIDS erkrankt

9 Stochastik und Markovketten 9 Bedingte Wahrscheinlichkeiten, Beispiel Nach dem Satz von Bayes ergibt sich damit: Also: ein jähriger nicht-Risikopatient, der positiv getestet wird, ist nur mit einer Wahrscheinlichkeit von 50 % wirklich erkrankt! In neueren Untersuchungen konnten ca. 95 % der befragten Ärzte die Ergebnisse ähnlicher Tests nicht korrekt interpretieren.

10 Stochastik und Markovketten 10 Zufallsvariablen Eine Funktion X, die jedem Elementarereignis in E eine reelle Zahl zuordnet, nennt man Zufallsvariable Beispiel: werfe eine Münze 3 mal hintereinander. Mögliche Zufallsvariablen: –X1 = Wie oft fiel Zahl –X2 = Wie oft fiel Kopf –X3 = Wie oft fiel Kopf oder Zahl Für eine Zufallsvariable X und ein Elementarereignis e interessiert uns z.B. p(X=e). Im Beispiel: –p(X1 = 3) = 1/8 –p(X3 = 3) = 1 –p(X3 = 1) = 0 –etc...

11 Stochastik und Markovketten 11 Erwartungswerte Sollen wir den Wert einer Zufallsvariablen X raten, ist die beste Schätzung der Erwartungswert E(X): Beispiel: Werfen eines fairen Würfels. E = {1..6} p(1) =... = p(6) = 1/6 X(e):=e E(X) = 1/6*( ) = 1/6 * 21 = 3.5

12 Stochastik und Markovketten 12 Markovketten Ein stochastischer Prozess ist eine Menge von Zufallsvariablen {X(t) | t 2 T}. T kann man sich als den Beobachtungszeitraum vorstellen, t als den aktuellen Zeitpunkt. Markovketten sind stochastische Prozesse mit einem Kurzzeitgedächtnis. Beispiel: nehmen wir an, alle 5 Sekunden kommt ein Student in die Mensa. Heute gibts nur C- oder Wahlessen. Um t 0 =12.45 sind noch alle Schlangen leer. Es seien f C (t) und f W (t) die Anzahl an Studenten in der C- bzw. Wahlessenschlange zum Zeitpunkt t. ) f C (t 0 )=f W (t 0 )=0 Sind die Schlangen gleich lang, gehen 8 von 10 Studenten zum billigeren C- Essen ) p(f C (t s)=f C (t 0 )+1)=0.8, f W (t s)=f W (t 0 )+1)=0.2 Daher ist um t 1 =13.00 das C-Essen überfüllt, die W-Schlange aber noch leer. Nun siegt der Hunger über den Geiz: p(f C (t s)=f C (t 1 )+1)=0.3

13 Stochastik und Markovketten 13 Ein wenig genauer... Für eine Markovkette brauchen wir: –eine Menge von möglichen Zuständen S={S 1,,S n } –für jeden Zeitpunkt t und für alle Zustände i, j die Wahrscheinlichkeit p ij (t), von Zustand i in Zustand j überzugehen P(t) = (p ij ) i=1 n, j=1, n (t) ist eine n £ n Matrix, die sogenannte Übergangsmatrix Betrachten wir nur diskrete Zeitschritte t, dann schreiben wir P n für P(n t) Es gilt: P (n) P (m) = P (n+m) (Matrizenprodukt!) Eine Markovkette heißt ergodisch, falls lim n !1 P (n) = C, wobei C eine konstante n £ n – Matrix ist. Also: eine Markovkette ist dann ergodisch, wenn sich die Übergangswahrscheinlichkeiten nach einiger Zeit nicht mehr ändern (d.h. sie haben sich auf ihren Endwert eingependelt)

14 Stochastik und Markovketten 14 Hidden Markov - Modelle Die Realität ist häufig ein wenig komplizierter... Oft können wir den Zustand der Markovkette nicht direkt beobachten, sondern nur irgendwelche Effekte, die mit einer gewissen Wahrscheinlichkeit in jedem Zustand auftreten können. So etwas bezeichnet man als Hidden-Markov- Modell Beispiel: in unserem Mensa-Modell können wir die eigentlichen Zustände (die Anzahl der Studenten) nicht bestimmen, wenn wir unten an der Schlange ankommen (wir können ja nicht sehen, wie viele oben noch warten). Wir können aber aus der Wartezeit gewisse Rückschlüsse auf die Länge der Schlange ziehen.


Herunterladen ppt "Stochastik und Markovketten 1 Zentrum für Bioinformatik der Universität des Saarlandes WS 2002/2003."

Ähnliche Präsentationen


Google-Anzeigen