Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.

Slides:



Advertisements
Ähnliche Präsentationen
Zufallsfelder Def. Zufallsfeld: Sei V eine endliche Menge (von Orten). Für jedes v V existiere eine (endliche) Menge X(v) von Zuständen x(v). Der Raum.
Advertisements

Motivation Bisher: Codes mit möglichst kurzer Codelänge.
Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Eine dynamische Menge, die diese Operationen unterstützt,
Stochastik und Markovketten
Die Laufzeit von randomisierten (zufallsgesteuerten) Algorithmen hängt von gewissen zufälligen Ereignissen ab (Beispiel Quicksort). Um die Laufzeiten dieser.
Eine dynamische Menge, die diese Operationen unterstützt,
Vorlesung Programmieren II
Polynomial Root Isolation
Kapitel 5 Wahrscheinlichkeit
Algebraische Zahlen: Exaktes Rechnen mit Wurzeln
Christian Schindelhauer
Wiederholung TexPoint fonts used in EMF.
Algorithmentheorie 04 –Hashing
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (19 - Analyse natürlicher Bäume) Prof. Th. Ottmann.
Kapitel 5 Stetigkeit.
Kapitel 6 Mehrstufige Zufallsexperimente
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
Konfidenzintervalle Intervallschätzung
Die Student- oder t-Verteilung
Hier noch ein Beispiel zur bedingten Wahrscheinlichkeit Drei Personen A, B und C befinden sich im Gefängnis. Einer von den dreien ist zum Tode verurteilt,
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Grundbegriffe der (deskriptiven) Statistikder Wahrscheinlichkeitstheorie.
Statistische Methoden I WS 2004/2005 Probeklausur Freitag, 21. Januar statt Vorlesung - In 2 Wochen In 2 Wochen!
§8 Gruppen und Körper (8.1) Definition: Eine Gruppe G ist eine Menge zusammen mit einer Verknüpfung, die jedem Paar (a,b) von Elementen aus G ein weiteres.
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Bayes‘sche Verfahren (Mitchell Kap. 6), Teil 1
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Wahrscheinlichkeitsrechnung
Effiziente Algorithmen
§24 Affine Koordinatensysteme
Wahrscheinlichkeitsverteilung
STATISIK LV Nr.: 1375 SS März 2005.
Effiziente Algorithmen
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation
Information und Kommunikation
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt WS 06/
Wahrscheinlichkeit Zufallsexperiment:
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0021 WS 2005/ Oktober 2005.
STATISIK LV Nr.: 1852 WS 2005/ Dezember 2005.
Wahrscheinlichkeitsrechnung
Wahrscheinlichkeitsrechnung
Die Wahrscheinlichkeit
Zufallsgröße und Erwartungswert
Grundbegriffe der Stochastik
1 (C) 2002, Hermann Knoll, HTW Chur, Fachhochschule Ostschweiz Wahrscheinlichkeitsverteilung Lernziele: Wahrscheinlichkeitsverteilung und der Wahrscheinlichkeitsdichte.
Automaten, formale Sprachen und Berechenbarkeit II SoSe 2004 Prof. W. Brauer Teil 3: Potenzreihen und kontextfreie Sprachen (Vgl. Buch von A. Salomaa)
Arne Vater Wintersemester 2006/ Vorlesung
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Begriff der Zufallsgröße
Kopfübungen BORG Schoren KÜ 3
Stochastik Grundlagen
K. Desch - Statistik und Datenanalyse SS05
Die Binomialverteilung
Der Wiener Prozess und seltene Ereignisse
Wahrscheinlichkeitsrechnung Übersicht
Wahrscheinlichkeitsrechnung Stochastische Unabhängigkeit Ex
 Präsentation transkript:

Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert als (a) (S,p) heißt ein Wahrscheinlichkeitsraum, wenn p(S) = 1. (b) Die endliche Menge S heißt der Ereignisraum (sample space). (c) Die Funktion p heißt die Wahrscheinlichkeitsverteilung. (d) Eine Teilmenge E heißt eine Ereignis (event). Enthält E genau ein Element der Menge S, so sprechen wir von einem Elementarereignis .

Beispiel [1]: Wir betrachten das Beispiel Münzwurf. Nach der Landung der Münze sehen wir entweder die eine Seite der Münze (K = Kopf) oder die andere Seite (Z = Zahl). Falls es sich bei der Münze um eine faire Münze handelt, erscheinen Kopf und Zahl mit der gleichen Wahrscheinlichkeit ½. Definieren wir p als dann gilt: Somit ist (S, p) ein Wahrscheinlichkeitsraum mit Ereignisraum S = { K, Z } und Wahrscheinlichkeitsverteilung p.

Beispiel [2]: Wir betrachten nun einen Würfel. Nach der Landung des Würfels sehen wir auf der Oberseite des Würfels 1, 2, 3, 4, 5 oder 6 Punkte. Falls es sich um einen fairen Würfel handelt, erscheint jede der sechs Zahlen mit der gleichen WSK 1/6. Definieren wir also p als dann gilt: Somit ist (S, p) ein Wahrscheinlichkeitsraum mit Ereignisraum S = {1,2,3,4,5,6} und Wahrscheinlichkeitsverteilung p.

Wahrscheinlichkeit von Ereignissen ES: Betrachten wir eine Teilmenge ES von S, d.h., ein Ereignis, so folgt aus der Definition des Ereignisraums bzw. der Wahrscheinlichkeitsver- teilung p, dass gilt: Die Wahrscheinlichkeit eines Ereignisses E ist also die Summe der WSKen der in E enthaltenen Elementarereignisse. Dies kann wie folgt interpretiert werden. Das Ereignis E tritt dann auf, wenn das Resultat des zufälligen Prozesses ein in E enthaltenes Elementarereignis ist. Beispiel Würfeln: Das Ereignis E tritt dann auf, wenn der Wurf eine 1 oder eine 6 liefert. Dies geschieht mit WSK 2/6.

Beispiel [3]: Wir werfen eine faire Münze n mal. Das Resultat von n Würfen ist eine Folge der Länge n der folgenden Form: Wie viele verschiedene Elementarereignisse (Folgen von Ks und Zs der Länge n) gibt es? Jedes Elementarereignis e S tritt mit der gleichen WSK auf: Es gilt dann:

Definition [2]: ereignisse e eine relle Zahl zuordnet, heißt Zufallsvariable. Gegeben ein WSKraum (S, p). Eine Funktion, die jedem Elementar- Mittels Zufallsvariablen kann man zum Beispiel jedem Elementarereignis e Kosten zuordnen, die durch das zufällige „Auftreten“ von e verursacht werden. Im folgenden werden wir oft Zufallsvariablen betrachten, derer Kosten den „Laufzeiten“ von Algorithmen (mit einer Zufallskomponente) entsprechen. Für ein vorgegebenes betrachten wir häufig die Menge aller Elementarereignisse, die durch die Zufallsvariable X auf x abgebildet werden: Als Kurzschreibweise für diese Menge verwenden wir

Definition [3]: Gegeben ein WSKraum (S, p) und eine Zufallsvariable X:SR. Der Erwartungswert der Zufallsvariablen X ist definiert als: Repräsentiert die Zufallsvariable X eine Art Kostenfunktion, so kann der Erwartungswert als die (mittleren) zu erwartenden Kosten interpretiert werden. Siehe folgendes Beispiel: Wir werfen zweimal hintereinander mit einem Würfel. Die Elementar- ereignisse sind Paare (a,b) mit a,b { 1,2,3,4,5,6 }. Die „Kosten“ X(e) eines Elementarereignisses e = (a,b) sind gleich der Summe a+b der Augenzahlen.

Man beachte: X(e) = a + b = k 2 3 4 5 6 7 8 9 10 11 12 prob({X=k}) 1/36 2/36 3/36 4/36 5/36 6/36 Man beachte:

Beispiel [4]: Wir werfen eine faire Münze n mal hintereinander. Die Zufallsvariable X ordnet einen Elementarereignis e  S = { K,Z }n die Anzahl der Würfe mit Resultat Kopf in e zu. Wie groß ist die WSK, dass man k Köpfe in einer Folge von n Würfen erhält, und welchen Wert hat der Erwartungswert E[X] von X?

Seien X und Y Zufallsvariablen über dem gleichen Ereignisraum S, Satz[1]: Seien X und Y Zufallsvariablen über dem gleichen Ereignisraum S, dann gilt: Beweis: Beispiel [5]: 2 Würfe mit einem Würfel X: S  R bildet ein EE auf die Augensumme ab. X1: S  R bildet ein EE auf die Augenzahl des ersten Wurfes ab. X2: S  R bildet ein EE auf die Augenzahl des zweiten Wurfes ab. X = X1 + X2 E[X] = E[X1 + X2] = E[X1] + E[X2] = 3.5 + 3.5 = 7

Beispiel [6]: n Würfe mit einer fairen Münze: S = { K,Z }n. falls i-ter Wurf Kopf ist falls i-ter Wurf Zahl ist E[Xi] = 1/2 X = X1 + X2 + .... + Xn E[X] = n/2

Vorsicht: Im allgemeinen ist E[XY] E[X]E[Y]. Es gibt jedoch Ausnahmen: Definition [4]: Zwei Zufallsvariablen X und Y über dem gleichen Ereignisraum heißen unabhängig, wenn für alle x, y   gilt: Satz [2]: Wenn X und Y unabhängig sind, dann gilt: E[XY] = E[X]E[Y]. Beweis:

Definition [5]: Seien A und B Ereignisse mit p(B)  0. Wir definieren die bedingte Wahrscheinlichkeit P(A|B) von A unter der Bedingung (Hypothese) B als Die bedingte WSK p(A|B) ist die WSK, dass ein Elementarereignis e A eintritt, unter der Annahme, dass die Hypothese B wahr ist, d.h., dass das eintretende Elementarereignis e mit Sicherheit ein Elementarereignis von B ist. Ist der Durchschnitt A  B der Ereignisse A und B leer, so ist p(A|B) = 0. Ist B in A enthalten, so ist p(A|B) = 1. Beispiel [7]: Ein Wurf mit einem Würfel. A = { 1,2,3 } und B = { 3, 4, 5 }.

Bezeichnung [1]: Sei AS ein Ereignis. Mit AC bezeichnen wir das komplementäre Ereignis. Satz [3] (Bayes‘sche Regel): Seien A und B Ereignisse (Ereignismengen) mit den folgenden Eigen- schaften: Dann gilt: Beweis: und

Beispiel [8]: Gegeben eine faire Münze und eine gefälschte Münze, die immer Kopf zeigt. Wir wählen eine der beiden Münzen mit Wahrscheinlichkeit ½ und werfen diese Münze zweimal. A = zwei Köpfe beobachtet B = gefälschte Münze gewählt

Definition [6]: Sei X eine Zufallsvariable. Dann heißt Var[X]:=E[(X-E[X])2] die Varianz von X. Die positive Wurzel der Varianz heißt Standardabweichung und wird mit  bezeichnet. Beispiel [9]: n Würfe mit einer fairen Münze. Xi = 1, falls der i-te Wurf gleich K(opf) ist, und 0 sonst. Lemma [1]: Beweis:

Wenn X und Y unabhängig sind, dann ist Var[X+Y] = Var[X]+Var[Y]. Satz [4]: Wenn X und Y unabhängig sind, dann ist Var[X+Y] = Var[X]+Var[Y]. Beweis: Satz[2]: X und Y unabhängig Lemma [1] Beispiel: n Würfe mit einer fairen Münzen Sei X = X1 + X2 + .... + Xn die Zahl der Köpfe. Die Zufallsvariablen Xi sind unabhängig.

Satz [5] (Markow Ungleichung): Sei X eine nicht-negative Zufallsvariable. Dann gilt für alle Konstanten t  1: Beweis: Bemerkung: Die obige Abschätzung ist sehr schwach. Wenn man etwas über die Varianz weiß, dann kann man bessere Abschätzungen erhalten.

Satz [6] (Chebychev Ungleichung): oder Beweis:

Beispiel: n Würfe mit einer fairen Münzen Für die Anzahl X der Köpfe gilt: E[X] = n/2 und Var[X] = n/4 Damit ist  = (n/4)1/2 und daher gilt für t = 10: Daher ist X mit Wahrscheinlichkeit 1-(1/100) in dem folgenden Intervall:

Satz [7] (Chernoff Schranke): Sei X die Anzahl der Köpfe in n Würfen einer fairen Münze und sei   0. Dann gilt: Beweis: Buch von Motwani/Ragharan über Randomized Algorithms. Beispiel: (n faire Münzen) Für  = 10/(n)1/2 erhalten wir Diese Abschätzung ist erheblich stärker als die Chebychef Schranke.