Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
1
Statistische Methoden I
WS 2009/2010 Vorlesung: Prof. Dr. Michael Schürmann Zeit: Montag 13:15 -15:45 (Pause 14:45) Ort: HS Makarenkostraße (Kiste) Übungen Gruppe S1: Marcus Vollmer Di 8: :00 SR 105/106 Gruppe S2: Marcus Vollmer Di 10: :00 SR 105/106 Gruppe S3: Franz Huwald Di 12: :00 SR 105/106 Gruppe S4: Hermann Haase Di 12: :00 SR 4 Gruppe S5: Hermann Haase Mi 8:00 – 10:00 SR 5 Gruppe S6: Sebastian Grapenthin Mi 10:00 – 12:00 SR 105/106 Gruppe S7: Stefan Voß Mi 10: :00 SR 109 Gruppe S8: Sebastian Grapenthin Mi 12: :00 SR 105/106
2
Franz-Mehring-Straße
SR 109 SR 105/106 Domstraße 20 SR 4 SR 5 Franz-Mehring-Straße Beginn der Übungen diese Woche
3
und funktionalanalytische Anwendungen
Institut für Mathematik und Informatik Lehrstuhl für Algebra und funktionalanalytische Anwendungen
4
Statistische Methoden I
WS 2009/2010 Literatur 1) G. Bamberg, F. Baur: Statistik. Oldenbourg 2) G. Bamberg, F. Baur: Statistik-Arbeitsbuch. Oldenbourg 3) L. Fahrmeir, R. Künstler, I. Pigeot, G. Tutz: Statistik. Springer 4) J. Schira: Statistische Methoden der VWL und BWL. Pearson Education 5) H. Haase: Stochastik für Betriebswirte. Shaker 6) J. Hartung: Statistik. Oldenbourg 7) R. Schlittgen: Einführung in die Statistik. Oldenbourg 8) A. Quatember: Statistik ohne Angst vor Formeln. Pearson Studium 9) H.-D. Radke: Statistik mit Excel. Markt + Technik
5
Statistische Methoden I WS 2009/2010
Einleitung: Wie schätzt man die Zahl der Fische in einem See? Zur Geschichte der Statistik I. Beschreibende Statistik 1. Grundlegende Begriffe 2. Eindimensionales Datenmaterial 2.1. Der Häufigkeitsbegriff 2.2. Lage- und Streuungsparameter 2.3. Konzentrationsmaße (Lorenz-Kurve) 3. Mehrdimensionales Datenmaterial 3.1. Korrelations- und Regressionsrechnung 3.2. Indexzahlen 3.3. Saisonbereinigung
6
II. Wahrscheinlichkeitstheorie
1. Laplacesche Wahrscheinlicheitsräume 1.1. Kombinatorische Formeln 1.2. Berechnung von Laplace-Wahrschein- lichkeiten 2. Allgemeine Wahrscheinlichkeitsräume 2.1. Der diskrete Fall 2.2. Der stetige Fall 2.3. Unabhängigkeit und bedingte Wahrscheinlichkeit 3. Zufallsvariablen 3.1. Grundbegriffe 3.2. Erwartungswert und Varianz 3.3. Binomial- und Poisson-Verteilung 3.4. Die Normalverteilung und der Zentrale Grenzwertsatz
7
4.2. Grenzverhalten irreduzibler Markov-Ketten
4.1. Übergangsmatrizen 4.2. Grenzverhalten irreduzibler Markov-Ketten 4.3. Gewinnwahrscheinlichkeiten 4.4. Beispiel „Ruin der Spieler“ 4.5. Anwendungen
8
III. Induktive Statistik
1. Schätztheorie 1.1. Grundbegriffe, Stichproben 1.2. Maximum-Likelihood-Schätzer 1.3. Erwartungstreue Schätzer 1.4. Konfidenzintervalle 1.5. Spezialfall Binomial-Verteilung 2. Spezialfall Normalverteilung 2.1. Student- und Chi-Quadrat-Verteilung 2.2. Konfidenzintervalle
9
3. Tests 3.1. Grundbegriffe 3.2. Tests einfacher Hypothesen (Neyman-Pearson-Test) 3.3. Tests zusammengesetzter Hypothesen 3.4. Vergleich zweier unabhängiger Stichproben 3.5. Chi-Quadrat-Tests 3.6. Kolmogorov-Smirnov-Test 3.7. Einfache Varianzanalyse
10
Beschreibende Statistik
(= Deskriptive Statistik) Beschreibung von Datenmaterial 1. Semester Vorstufe zur Schließenden Statistik (= Induktive Statistik) Analyse von Datenmaterial, Hypothesen, Prognosen 2. Semester
11
Fisch-Statistik
12
Ein Mensch, der von Statistik hört, denkt dabei nur an Mittelwert.
Er glaubt nicht dran und ist dagegen, ein Beispiel soll es gleich belegen: Ein Jäger auf der Entenjagd hat einen ersten Schuss gewagt. Der Schuss, zu hastig aus dem Rohr, lag eine gute Handbreit vor. Der zweite Schuss mit lautem Krach lag eine gute Handbreit nach. Der Jäger spricht ganz unbeschwert voll Glauben an den Mittelwert: Statistisch ist die Ente tot. Doch wär‘ er klug und nähme Schrot - dies sei gesagt, ihn zu bekehren - er würde seine Chancen mehren: Der Schuss geht ab, die Ente stürzt, weil Streuung ihr das Leben kürzt. (aus: J. Hartung, B. Elpert, K.-H. Klösener: Statistik)
13
Zur Geschichte der Statistik
Diese ist zunächst eine Geschichte der Wahrscheinlichkeitstheorie. Ursprung der Wahrscheinlichkeitstheorie: Glücksspiele Anfrage des Chevalier de Méré an den französischen Mathematiker Blaise Pascal ( )
14
aus dem Jahre 1654. Man betrachte die beiden folgenden Wetten: 1) 1 Würfel wird 4 mal geworfen. Gesetzt wird darauf, dass dabei mindenstens eine 6 auftritt. 2) 2 Würfel werden gleichzeitig 24 mal geworfen. Gesetzt wird darauf, dass dabei mindestens ein 6er-Pasch (d. h. beide Würfel zeigen die 6) auftritt. Daraufhin Korrespondenz zwischen Blaise Pascal und Pierre de Fermat ( ) über dieses Problem.
15
Der Chevalier hatte angefragt, ob es stimme, dass man bei der Wette 1)
öfter gewinnt als bei Wette 2). Pascal und Fermat konnten diese Vermutung des Chevaliers mathematisch bestätigen. (Wir führen die Rechnung nachher noch hier durch.) Weitere Stationen der anfänglichen Entwicklung der Wahrscheinlich- keitstheorie: Abraham de Moivre ( ) Zentraler Grenzwertsatz in der elementaren Form: Approximation der Binomial-Verteilung durch die Normalverteilung. The Doctrine of Chances
16
Thomas Bayes ( ) „Umgekehrte“ Vorgehensweise: Welche Rückschlüsse kann man bei Kenntnis der Ausgänge eines Spiels auf die Wahrscheinlichkeiten machen? (Bayessche Formel)
17
Pierre Simon Marquis de Laplace (1749 - 1827)
Théorie Analytique des Probabilités Erste Zusammenfassung des Wissensstandes auf dem Gebiet der Wahrscheinlichkeitstheorie Jacob Bernoulli ( ) Gesetz der großen Zahlen: Relative Häufigkeiten konvergieren gegen die Wahrscheinlichkeit des Ereignisses (Wiederholung voneinander unabhängiger Versuche) Ars Conjectandi
18
Carl Friedrich Gauß (1777 - 1855)
Adrien Marie Legendre ( ) Gauß (= Normal)-Verteilung Methode der kleinsten Quadrate
19
Entwicklung der Statistik
Karl Pearson ( ) Chi-Quadrat-Verteilung Chi-Quadrat-Test W. S. Gosset ( ) (Pseudonym „Student“) Student-Verteilung (= t-Verteilung) Ersetzt die Gauß-Verteilung, wenn Varianz nicht bekannt. R. A. Fisher ( ) The Design of Experiments Varianzanalyse F-Verteilung (G. W. Snedecor)
20
J. Neyman E. S. Pearson Entwicklung der Testtheorie seit Beginn des 2.Weltkrieges „Neyman-Pearson-Test“ Abraham Wald ( ) Statistical Decision Functions Entscheidungstheorie
21
Eine Menge ist eine Zusammenfassung bestimmter
wohl unterschiedener Objekte unserer Anschauung oder unseres Denkens - welche Elemente der Menge genannt werden - zu einem Ganzen. Georg Cantor ( )
Ähnliche Präsentationen
© 2025 SlidePlayer.org Inc.
All rights reserved.