Statistische Methoden I WS 2002/2003 Vorlesung: Prof. Dr. Michael Schürmann Zeit: Freitag 10.00 - 12.30 (Pause: 11.30 - 11.45) Ort: Hörsaal Loefflerstraße Übungen Gruppe 3: Andreas Matz Di 7.30 - 9.00 Gruppe 1: Birte Holtfreter Di 9.15 - 10.45 Gruppe 2: Birte Holtfreter Di 11.00 - 12.30 Gruppe 4: Melanie Hinz Mi 7.30 - 9.00 Gruppe 5: Melanie Hinz Mi 9.15 - 10.45 Gruppe 6: Michael Schürmann Mi 11.00 - 12.30 Ort: PC Pool Loefflerstraße Beginn der Übungen nächste Woche
Statistische Methoden I WS 2002/2003 Literatur 1) G. Bamberg, F. Baur: Statistik. Oldenbourg 2002 2) G. Bamberg, F. Baur: Statistik-Arbeitsbuch. Oldenbourg 2000 3) G. Gelbrich: Statistik für Anwender. Shaker 1998 4) H. Haase: Stochastik für Betriebswirte. Shaker 1998 5) R. Schlittgen: Einführung in die Statistik. Oldenbourg 2000 6) P. v. d. Lippe: Deskriptive Statistik. Oldenbourg 2002 7) P. v. d. Lippe: Induktive Statistik. Oldenbourg 1999 8) N. Henze: Stochastik für Einsteiger. Vieweg 2000 9) U. Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Vieweg 2002
Statistische Methoden I WS 2002/2003 Zur Geschichte der Statistik I. Beschreibende Statistik 1. Grundlegende Begriffe 2. Eindimensionales Datenmaterial 2.1. Der Häufigkeitsbegriff 2.2. Lage- und Streuungsparameter 2.3. Konzentrationsmaße (Lorenz-Kurve) 3. Mehrdimensionales Datenmaterial 3.1. Korrelations- und Regressionsrechnung 3.2. Indexzahlen 3.3. Saisonbereinigung
II. Wahrscheinlichkeitstheorie 1. Laplacesche Wahrscheinlicheitsräume 1.1. Kombinatorische Formeln 1.2. Berechnung von Laplace-Wahrschein- lichkeiten 2. Allgemeine Wahrscheinlichkeitsräume 2.1. Der diskrete Fall 2.2. Der stetige Fall 2.3. Unabhängigkeit und bedingte Wahrscheinlichkeit 3. Zufallsvariablen 3.1. Grundbegriffe 3.2. Erwartungswert und Varianz 3.3. Binomial- und Poisson-Verteilung 3.4. Die Normalverteilung und der Zentrale Grenzwertsatz
Beschreibende Statistik (= Deskriptive Statistik) Beschreibung von Datenmaterial 1. Semester Vorstufe zur Schließenden Statistik (= Induktive Statistik) Analyse von Datenmaterial, Hypothesen, Prognosen 2. Semester
Ein Mensch, der von Statistik hört, denkt dabei nur an Mittelwert. Er glaubt nicht dran und ist dagegen, ein Beispiel soll es gleich belegen: Ein Jäger auf der Entenjagd hat einen ersten Schuss gewagt. Der Schuss, zu hastig aus dem Rohr, lag eine gute Handbreit vor. Der zweite Schuss mit lautem Krach lag eine gute Handbreit nach. Der Jäger spricht ganz unbeschwert voll Glauben an den Mittelwert: Statistisch ist die Ente tot. Doch wär‘ er klug und nähme Schrot - dies sei gesagt, ihn zu bekehren - er würde seine Chancen mehren: Der Schuss geht ab, die Ente stürzt, weil Streuung ihr das Leben kürzt. (aus: J. Hartung, B. Elpert, K.-H. Klösener: Statistik)
Zur Geschichte der Statistik Diese ist zunächst eine Geschichte der Wahrscheinlichkeitstheorie. Ursprung der Wahrscheinlichkeitstheorie: Glücksspiele Anfrage des Chevalier de Méré an den französischen Mathematiker Blaise Pascal (1623 - 1662)
aus dem Jahre 1654: Man betrachte die beiden folgenden Wetten: 1) 1 Würfel wird 4 mal geworfen. Gesetzt wird darauf, dass dabei mindenstens eine 6 auftritt 2) 2 Würfel werden gleichzeitig 24 mal geworfen. Gesetzt wird darauf, dass dabei mindestens ein 6er-Pasch (d. h. beide Würfel zeigen die 6) auftritt. Daraufhin Korrespondenz zwischen Blaise Pascal und Pierre de Fermat (1601 - 1665) über dieses Problem.
Der Chevalier hatte angefragt, ob es stimme, dass man bei der Wette 1) öfter gewinnt als bei Wette 2). Pascal und Fermat konnten diese Vermutung des Chevaliers mathematisch bestätigen. (Wir führen die Rechnung nachher noch hier durch.) Weitere Stationen der anfänglichen Entwicklung der Wahrscheinlichkeitstheorie: Abraham de Moivre (1667 - 1754) Zentraler Grenzwertsatz in der elementaren Form: Approximation der Binomial-Verteilung durch die Normalverteilung. The Doctrine of Chances
Thomas Bayes (1702 - 1761) „Umgekehrte“ Vorgehensweise: Welche Rückschlüsse kann man bei Kenntnis der Aus- gänge eines Spiels auf die Wahrscheinlichkeiten machen? (Bayessche Formel)
Pierre Simon Marquis de Laplace (1749 - 1827) Théorie Analytique des Probabilités Erste Zusammenfassung des Wissesnsstandes auf dem Gebiet der Wahrscheinlichkeitstheorie Jacob Bernoulli (1654- 1705) Gesetz der großen Zahlen: Relative Häufigkeiten konvergieren gegen die Wahrscheinlichkeit des Ereignisses (Wiederholung voneinander unabhängiger Versuche) Ars Conjectandi
Carl Friedrich Gauß (1777 - 1855) Adrien Marie Legendre (1752 - 1833) Gauß (= Normal)-Verteilung, Methode der kleinsten Quadrate
Entwicklung der Statistik Karl Pearson (1857 - 1936) Chi-Quadrat-Verteilung Chi-Quadrat-Test W. S. Gosset (1876 - 1937) (Pseudonym „Student“) Student-Verteilung (= t-Verteilung) Ersetzt die Gauß-Verteilung, wenn Varianz nicht bekannt R. A. Fisher (1890 - 1962) The Design of Experiments Varianzanalyse F-Verteilung (G. W. Snedecor)
J. Neyman E. S. Pearson Entwicklung der Testtheorie seit Beginn des 2. Weltkrieges „Neyman-Pearson-Test“ Abraham Wald (1902 - 1950) Statistical Decision Functions Entscheidungstheorie
Eine Menge ist eine Zusammenfassung bestimmter wohlunterschiedener Objekte unserer Anschauung oder unseres Denkens - welche Elemente der Menge genannt werden - zu einem Ganzen. Georg Cantor (1845 - 1918)
Charakterisierung von Merkmalen Unterscheidung zwischen qualitativen quantitativen Merkmalen quantitative: Merkmale unterscheiden sich nach der Größe qualitative: Merkmale unterscheiden sich nach der Art Unterscheidung nach der zugrundeliegenden Werteskala Nominal- Ordinal- metrische Skala
Nominal: keine Rangordnung Ordinal: Rangordnung, aber Zwischenwerte nicht interpretierbar metrisch: Rangordnung (Reihenfolge), Werte zwischen 2 Werten erlauben eine Interpretation Unterscheidung nach diskreten stetigen Merkmalen diskret: Menge der Werte abzählbar (evtl. abzählbar unendlich) stetig: Menge der Werte kontinuierlich, (z.B. reelle Zahlen oder ein Intervall reeller Zahlen)
Häufigkeiten Gegeben ist eine Datenliste (Urliste) (hier z. B. die Klausur-Noten von 50 Studenten) 3 3 4 5 2 1 3 3 4 3 2 3 4 4 4 5 2 1 3 3 3 3 4 4 4 5 4 3 4 3 2 3 3 2 4 3 2 1 5 4 4 4 5 4 5 1 1 3 3 3 Hier die geordneten Daten 1 1 1 1 1 2 2 2 2 2 2 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 5 5 5 5 5 5
H(1) = 5 H(2) = 6 H(3) = 18 H(4) = 15 H(5) = 6 Absolute Häufigkeiten h(1) = 0.1 h(2) = 0.12 h(3) = 0.36 h(4) = 0.3 h(5) = 0.12 Relative Häufigkeiten F(1) = 0.1 F(2) = 0.22 F(3) = 0.58 F(4) = 0.88 F(5) = 1 Kumulierte relative Häufigkeiten
Fakultäten EMAU Berechnung der Winkel für ein Kreisdiagramm T: Theologische RSW: Rechts- und Staatswiss. Med: Medizinische Phil: Philosophische MathNat: Mathematisch-Naturwiss. K: Studienkolleg, ... h(T) = 0.011 h(RSW) = 0.22 h(Med) = 0.164 h(Phil) = 0.309 h(MathNat) = 0.273 h(K) = 0.022 3.96 Grad 79.2 Grad 59.04 Grad 111.24 Grad 98.28 Grad 7.92 Grad
Kreisdiagramm Fakultäten EMAU
Stabdiagramm „Zähne“
Histogramm „Zähne“
Empirische Verteilungsfunktion „Zähne“