2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell

Slides:



Advertisements
Ähnliche Präsentationen
Vom graphischen Differenzieren
Advertisements

Lineare Funktionen mit der Gleichung y = mx
HIPPOKRATES VON CHIOS ( griechischer Mathematiker, um 440 v. Chr.)
Die Beschreibung von Bewegungen
Multivariate Datenanalyse Datum: Betreuer: Dr. Bellmann Quellen: Multivariate Statistik, Hartung/Elpelt 1989 Stochastik für Ingenieure und Naturwissenschaftler,
Physikalische Messgrößen
Theorie psychometrischer Tests, III
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
So sieht ein Protokoll aus:
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
WS Algorithmentheorie 01 – Divide and Conquer (Segmentschnitt) Prof. Dr. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Der Zusammenhang metrischer Merkmale
Mehrfachregressionen
K. Desch - Statistik und Datenanalyse SS05
Zeitreihenanalyse WS 2004/2005 Michael Hauhs / Gunnar Lischeid
1. Warum ist „Kartenkunde“ für die Feuerwehr wichtig ?
Strukturgleichungsmodelle
Konzentrationsmaße (Gini-Koeffizient, Lorenz-Kurve) Konzentrationsmaße Kennwert für die wirtschaftliche Konzentration Typische Beispiele: Verteilung des.
Datenmatrix. Datentabelle für 2 Merkmale Kontingenztafel der absoluten Häufigkeiten.
Datenmatrix.
Korrelationskoeffizient nach Bravais-Pearson Eigenschaften X und Y unabhängig.
Datentabelle für 2 Merkmale
Die Steigung m In der allgemeinen Funktionsgleichung y=mx+b
Tutorium
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
(Gini-Koeffizient, Lorenz-Kurve)
Analyse kategorialer Variablen
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Wiederholung und Beispiele
Eigenschaften der OLS-Schätzer
Einfache Regressionsgleichung
Probleme der Modellspezifikation
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Matrix-Algebra Grundlagen 1. Matrizen und Vektoren
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Regionalisierte Variablen und Kriging
§3 Allgemeine lineare Gleichungssysteme
Statistik: Mehr zur Regression.
Einfache und multiple Regression
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
IK Ökonomische Entscheidungen und Märkte
Regression und Kollokation
Lineare Funktionen und ihre Schaubilder, die Geraden
1 Stichprobenverfahren zur Qualitätssicherung Hilfestellung der Statistik in der Wirtschaftsprüfung.
Gegenseitige Lage von Geraden Schnittpunktberechnung
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Theorie psychometrischer Tests, II
Vorwissen: Begriff der Steigung Geradengleichung Polynomfunktionen Monotonie und Extremwerte In den ersten Beispielen werden dieses Wissen allerdings wiederholt.
Steigung und lineare Funktionen
Steigung und lineare Funktionen
Das Traveling Salesman Problem (TSP)
Statistik – Regression - Korrelation
Vom graphischen Differenzieren
Die einfache/multiple lineare Regression
STATISIK LV Nr.: 1852 WS 2005/ Jänner 2006.
Routenplanung querfeldein - Geometric Route Planning
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
Deterministische Verfahren
Geostatistik Kriging Sarah Böckmann.
Der Wiener Prozess und seltene Ereignisse
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Jennifer Staubmann 5 AK 2012/2013 Regressionsanalyse.
Die einfache/multiple lineare Regression
Grundlagen und Grundbegriffe
 Präsentation transkript:

2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell Ziele: Erläuterung der Grundlagen der Regressionsanalyse; Kompetenzerwerb für die Durchführung und Interpretation einer Regressionsanalyse; Verständnis der Möglichkeiten (und Grenzen) des Verfahrens;

Grundfragen Warum überhaupt Schätzungen? Welches Schätzprinzip liegt der Regressionsanalyse zugrunde? Wie werden die Koeffizienten der Regressionsgeraden berechnet? Welche Annahmen werden dabei getroffen? Welche Eigenschaften besitzt die Schätzung? Wie kann die Güte einer Regressionsschätzung beurteilt werden?

Das Schätzprinzip (1) Y X Eine einfache Darstellung eines Zusammenhangs zwischen zwei Variablen (Xi und Yi) ergibt sich, wenn jeweils zusammen- gehörige Paare von Beobachtungen als Punkte in ein Diagramm eingetragen werden („Scatterplot“). Beispiel eines Punktes: Y X

Das Schätzprinzip (2) Für mehrere Beobachtungspaare enthält man eine „Punktewolke“: Y X X

Das Schätzprinzip (3) Gesucht wird eine lineare Darstellung des Zusam- menhangs, d.h. eine Gerade; das folgende Bild zeigt die möglichen Verbindungen aller Punkte: Y X

Das Schätzprinzip (4) Das beschriebene Vorgehen ist offensichtlich nicht befriedigend; der „Zusammenhang“ zwischen den beiden Variablen erscheint völlig diffus; Das Missverständnis liegt darin, dass fälsch-licherweise von einem exakt gemessenen und nicht von einem fehlerbehafteten Zusammenhang ausgegangen wird. Anders ausgedrückt: Wir bewegen uns nicht in einer deterministischen Welt, sondern einer stochastischen.

Das Schätzprinzip (5) Ziel der Analyse ist es, genau einen linearen Zusammenhang (eine Gerade) zu bestimmen, der die in der Punktewolke enthaltene Information „möglichst gut“ beschreibt; Für die Festlegung dieser Geraden benötigen wir ein Kriterium; die gewöhnliche Kleinstquadratemethode wählt das folgende: „Bestimme die Gerade so, dass die Summe des Quadrats der vertikalen Abstände minimiert wird“.

Das Schätzprinzip (6) Y X Eine Gerade soll so gelegt werden, dass die Summe der schraffierten Flächen minimal wird; diese Gerade heißt Regressionsgerade; Y X

Signal und Rauschen Jedes Punktepaar enthält Information über den Zusammenhang; diese Information ist jedoch durch einen Störprozess verunreinigt; das „Signal“ wird durch „Rauschen“ überlagert; je stärker das „Rauschen“ ist, desto schwieriger wird es, das „Signal“ zu erkennen; je mehr Beobachtungen (Punktepaare) wir zur Verfügung haben, desto besser können wir einen Zusammenhang erkennen; falls kein Zusammenhang zwischen X und Y besteht, wird die Steigung der Regressionsgeraden gegen Null gehen; d.h. es gibt ausschließlich Rauschen, kein Signal.

Situation 1: Kein Zusammenhang zwischen X und Y Punktewolke diffus; kein Muster erkennbar; Y X

Situation 2: Positiver Zusammenhang zwischen X und Y Klares Muster (entlang einer ansteigenden Linie) erkennbar; hohes X ist mit hohem Y verbunden und vice versa; steigende Regressionsgerade Y X

Situation 3: Negativer Zusammenhang zwischen X und Y Wiederum klares Muster erkennbar; hohes X ist mit niedrigem Y verbunden und vice versa ;  fallende Regressionsgerade Y X

Grundbegriffe (1) x heißt Regressor oder unabhängige Variable; y heißt Regressand oder abhängige Variable; der vertikale Abstand von der Gerade, die den tatsächlichen Zusammenhang beschreibt, wird als stochastischer Fehler oder stochastische Störung mit e bezeichnet.

Grundbegriffe (2)

Grundbegriffe (3)

Das Grundmodell in Matrixschreibweise

Definitionen

Schätzprinzip der Kleinstquadrate-Methode: