Wahrscheinlichkeitstheorie

Slides:



Advertisements
Ähnliche Präsentationen
Der Foliensatz ist unter einer Creative Commons-Lizenz lizenziert:
Advertisements

Problemlösen am Beispiel des Rückwärtsarbeitens
? Stichwortverzeichnis … zum Suchen
Stichwortverzeichnis
Heute Mathe, morgen DLR! Dr. Margrit Klitz
Einführung in Web- und Data-Science Grundlagen der Stochastik
gemeinsam.innovativ.nachhaltig.
Wissenschaftliche Methodik
3. Schafft das Internet neue Transaktionsdesign?
Umweltbezogene Entscheidungen - multidimensionale Bewertungsverfahren -
Michael Artin: Geometric Algebra
R What is this R thing, and is it worth some effort?
3 Elektrochemische Wandler
Elektro-Skateboards Teil I Grundlagen
Stichwortverzeichnis
8 Zündung/Motormanagement
Stichwortverzeichnis
2 Elektrische Maschinen in Kraftfahrzeugen
Herstellung von kristallinen Metalloxiden über die Schmelze mit einem Spiegelofen Gruppe 8: Yuki Meier, Vivien Willems, Andrea Scheidegger, Natascha Gray.
Kapitel 4 Traveling Salesman Problem (TSP)
Markus Lips März 2017 ETH-Vorlesung, 6. Sem. Agrarwissenschaft BSc Agrartechnik II.
Einführung in die Wahrscheinlichkeitsrechnung
Motoremissionen mobiler Anlagen – Stand der Technik
Lieber Leser, liebe Leserin,
Inhaltsverzeichnis In der vorliegenden Präsentation finden Sie unter anderem Antworten auf folgende Fragen… warum ist eine Gesetzesinitiative zum Betriebliches.
Einführung in Web- und Data-Science
Algorithmen und Datenstrukturen
Algorithmen und Datenstrukturen
Industrie 4.0 für die Ausbildung 4.0
Entwicklung epistemologischer Überzeugungen
Das Verdauungssystem Präsentiert von Theresa
MasterBAV© Die neue Generation BAV
Algorithmen und Datenstrukturen
Rehwild die richtige Altersbestimmung
PSG II Neuer Pflegebedürftigkeitsbegriff und dessen Begutachtung (NBA)
Medientechnische Infrastrukturen für virtuelle und lokale Lernräume
Wissensmanagement im Zeitalter von Digitaler Transformation
«Wir bereiten uns auf die Deutschlandreise vor»
GABI UND BEN.
Pflege & Finanzierung 01. Juni 2017 Dr. Sonja Unteregger
Das Arbeitgebermodell in Zeiten des
Microsoft® Office PowerPoint® 2007-Schulung
Einführung in Web- und Data-Science
Pensionsrück-stellungen Prof. Dr. Matthias Hendler
Mathematik 10.
Betriebliche Gesundheitsförderung 2
Vorlesung Wasserwirtschaft & Hydrologie I
Liebe BetrachterInnen,
Rosebrock: Geometrische Gruppen
Forschungsmethoden in der Teilchenphysik
Neue Unterrichtsmaterialien zur Teilchenphysik Philipp Lindenau CERN | Herzlich willkommen! Präsentation mit Notizen hinterlegt!
Eröffnungsveranstaltung
Aktuelle Themen aus dem KVJS-Landesjugendamt Referat 44
Roomtour - Podio für Anfänger
175 Jahre UZH Krisenkommunikation
Frauen- Männerriegen KONFERENZ
Schulung für Microsoft® Office SharePoint® 2007
Was ist eigentlich Datenschutz?
Aktuelle Aspekte des Europäischen Zivilprozessrechts
Einführung in die Benutzung des Einkaufportals der Eckelmann AG
Wer wir sind! Ihr S-Campus-Team direkt im Campus Center. Sven Deussing
Non-Standard-Datenbanken
Amand Fäßler 3. Januar 2017; RC Bregenz
Mathematik 11 Analytische Geomerie.
Non-Standard-Datenbanken
Menger-Schwamm Ausgangsfigur in Stufe 0 ist ein Würfel
Sortieren auf Multiprozessorrechnern
Wurzeln und Irrationalität nach U.Wagner, OHG Tuttlingen
Langzeitbelichtung Ein Zugang zur Kinematik in Klassenstufe 7/8
Eine kleine Einführung in das Projekt „Mausefallenauto“
 Präsentation transkript:

Wahrscheinlichkeitstheorie Seminar Evaluation- und Forschungsstrategien 02. Juli 2019 Vortrag von Dennis Schäfer, Mona Clauter, Zeynep Fürstenfeld Johannes Gutenberg Universität Mainz

Agenda Wofür brauchen wir das eigentlich? Grundbegriffe Definition der Wahrscheinlichkeit LaPlace Mises Kolmogoroff (Axiomatik) Additionstheorem Bedingte Wahrscheinlichkeit Multiplikationstheorem Satz der totalen Wahrscheinlichkeit Satz von Bayes

Wahrscheinlichkeitsrechnung Wofür brauchen wir das eigentlich? Wann wird ein Deich brechen, wenn er einem konstanten hohen Druck von x- Bar ausgesetzt ist? Wie viele von denen, die einen Eignungstest bestehen, sind auch wirklich fur den Beruf geeignet? Um etwas ¨ uber ¨ zufallige Ereignisse und ihre Wahrscheinlichkeit lernen zu k ¨ onnen, m ¨ ussen die betrachteten ¨ Ereignisse zwei Bedingungen erfullen:

Zufallsexperiment Beispiel Zufallsexperiment (Ξ): Ein 6-seitiger fairer Würfel ist 1x zu werfen. Trial: Der einmalige Wurf des Würfels Ergebnisse: Die möglichen Augenzahlen (1, 2, 3, 4, 5, 6) – Was kann gewürfelt werden Ereignisse: „1 oder 6“, „Augenzahl ≤ 3“, „ungerade Zahl“, „irgendeine Zahl“ – Kombination von Ergebnissen Spielregeln sehen in dem Zufallsexperiment wie folgt aus: Ein 6-seitiger fairer Würfel ist 1x zu werfen Ergebnis ist das was alles gewürfelt werden kann – und eine konkrete Beobachtung Ereignis ist eine beliebige Zusammenfassung von Ergebnissen, 1 oder 6, 6 oder 1, die Reihenfolge Spielt keine Rolle

Definition der Wahrscheinlichkeit Laplace: Wahrscheinlichkeit aller Elementarereignisse sind gleich Mises: statistischer Grenzwertsatz (keine a priori Annahmen) Nach von Mieses definiert P(A) := lim n!1 nA n dieWahrscheinlichkeit eines Ereignisses A. Hierbei ist n die Gesamtzahl der Versuche und nA ist die Gesamtzahl der Versuche, bei denen A beobachtet wurde.Wird n gr¨oßer, so w¨achst auch nA entsprechend an, der Quotient nA/n strebt dabei gegen einen Grenzwert P(A). Man nennt diese Definition auch die statistische Wahrscheinlichkeitsdefinition (oder a-posteriori Definition), da keine a-priori Annahmen ¨uber die Ereignisse gemacht werden,

Bedingungskomplex Ereignisse A, B und Verknüpfungen von A und B 𝐴⊂𝐵 aus A folgt immer B 𝐵⊂𝐴 aus B folgt immer A 𝐴∩𝐵 A und B treten gleichzeitig auf 𝐴∪𝐵 A oder B treten auf, oder beide 𝐴= 𝐵 A tritt dann ein, wenn B nicht eintritt

Axiomatik Kolmogoroff (1933) mengentheoretisch begründeter Wahrscheinlichkeitsbegriff Wahrscheinlichkeit P(A) ist eine Funktion des Ereignisses A Eigenschaften: Fundamentale Eigenschaften von Wahrscheinlichkeiten formal und frei von a-priori Eigenschaften der Elementarereignisse A1 P(A) ≥ 0 A2 P(Ω) = 1 A3 P (A ∪𝑩)=𝑷(𝑨)+𝑷(𝑩) Mathematischer Umgang mit Wahrscheinlichkeiten jedem Ereignis A, das einer Ereignisalgebra angeh¨ort, eine wohlbestimmte Wahrscheinlichkeit P (A) zugewiesen werden kann. Die Wahrscheinlichkeit P (A) ist eine auf der Ereignisalgebra A definierte Funktion des Ereignisses A. Diese Funktion besitzt die folgenden Eigenschaften:

Schlussfolgerungen 0≤𝑃(𝐴)≤1 𝑃 𝐴 +𝑃( 𝐴 )= 1  Wahrscheinlichkeit des Komplements 𝑃( 𝐴 ) = 1- P(A) weitere im Skript..

Aufgabe 1

Additionstheorem Wahrscheinlichkeit eines Ereignisses, dass sich aus der Vereinigung zweier anderer Ereignisse ergibt 𝑃 𝐴∪𝐵 =𝑃 𝐴 +𝑃 𝐵 −𝑃(𝐴∩𝐵) nicht disjunkt 𝑃 𝐴∪𝐵 =𝑃 𝐴 +𝑃 𝐵 disjunkt P von A oder B 𝑃 𝐴∩𝐵 =0 P 𝐴 1 ∪𝐴 2 ∪…∪𝐴 𝑘 =𝑃( 𝐴 1 )+…+𝑃(𝐴 𝑘 )

Bedingte Wahrscheinlichkeit Wahrscheinlichkeit für ein Ereignis B, unter der Bedingung, dass schon ein anderes Ereignis A eingetreten ist 𝑃 𝐵 𝐴 = P A∩B P A 𝑃 𝐴 >0 Erklärung Wahrscheinlichkeit ändert sich für B, durch das Eintreten von A z.B. ziehen ohne zurücklegen  Omega wird kleiner 𝐴∩𝐵 𝐴∪𝐵

Multiplikationstheorem Wahrscheinlichkeit des gemeinsamen Eintretens von A und B 𝑃 𝐴∩𝐵 =𝑃(𝐴)∙𝑃(𝐵|𝐴) Unabhängigkeit der Ereignisse 𝑃 𝐵 𝐴 =𝑃(𝐵) 𝑃 𝐴∩𝐵 =𝑃(𝐴)⋅𝑃(𝐵) Die Kenntnis dass A eingetreten ist, ist ohne Konsequenz für die Wahrscheinlichkeit des Eintretens von B

Satz der totalen Wahrscheinlichkeit Unbedingte Wahrscheinlichkeit von B wird mit seinen bedingten Wahrscheinlichkeiten in Bezug gesetzt 𝑃 𝐵 =𝑃 𝐵 𝐴 ⋅𝑃 𝐴 +𝑃(𝐵| 𝐴 )⋅𝑃( 𝐴 ) ! Partitionierung: Zerlegung der Menge der Elementarereignisse Ω in A und 𝐴 A Ereignis B 𝐴

B 𝐵 A 𝐴 B 𝐵 𝑃 𝐴∩𝐵 =𝑃(𝐴)∙𝑃(𝐵|𝐴) 𝑃 𝐴∩ 𝐵 =𝑃(𝐴)∙𝑃( 𝐵 |𝐴) 𝑃 𝐴∩ 𝐵 =𝑃(𝐴)∙𝑃( 𝐵 |𝐴) 𝑃 𝐴 ∩𝐵 =𝑃( 𝐴 )∙𝑃(𝐵| 𝐴 ) 𝑃 𝐴 ∩ 𝐵 =𝑃( 𝐴 )∙𝑃( 𝐵 | 𝐴 ) B 𝐵 A 𝐴 B 𝐵

Satz der totalen Wahrscheinlichkeit

B 𝐵 A1 B A2 Aj B 𝐵 . 𝑃 𝐴1∩𝐵 =𝑃(𝐴1)∙𝑃(𝐵|𝐴1) 𝑃 𝐴1∩ 𝐵 =𝑃(𝐴1)∙𝑃( 𝐵 |𝐴1) 𝑃 𝐴1∩ 𝐵 =𝑃(𝐴1)∙𝑃( 𝐵 |𝐴1) 𝑃 𝐴2∩𝐵 =𝑃(𝐴2)∙𝑃(𝐵|𝐴2) 𝑃 𝐴2∩ 𝐵 =𝑃 𝐴2 ∙𝑃 𝐵 𝐴2 . 𝑃 𝐴𝑗∩𝐵 =𝑃(𝐴𝑗)∙𝑃(𝐵|𝐴𝑗) 𝑃 𝐴𝑗∩ 𝐵 =𝑃(𝐴𝑗)∙𝑃( 𝐵 |𝐴𝑗) A1 A2 . Aj B B 𝐵

Theorem von Bayes 𝑃 𝐴∩𝐵 =𝑃(𝐵|𝐴)⋅𝑃(𝐴) 𝑃 𝐴∩𝐵 =𝑃(𝐴|𝐵)⋅𝑃(𝐵) 𝑃(𝐵|𝐴)⋅𝑃(𝐴) =𝑃(𝐴|𝐵)⋅𝑃(𝐵) 𝑃 𝐴 𝐵 = 𝑃(𝐵|𝐴)⋅𝑃(𝐴) 𝑃(𝐵)

Theorem von Bayes 𝑃 𝐵 =𝑃 𝐵 𝐴 ⋅𝑃 𝐴 +𝑃(𝐵| 𝐴 )⋅𝑃( 𝐴 ) (Satz der totalen Wahrscheinlichkeit 𝑃 𝐴 𝐵 = 𝑃(𝐵|𝐴)⋅𝑃(𝐴) 𝑃 𝐵 𝐴 ⋅𝑃 𝐴 +𝑃(𝐵| 𝐴 )⋅𝑃( 𝐴 )

Aufgabe 2

Vielen Dank für eure Aufmerksamkeit!