Mehrfachregressionen

Slides:



Advertisements
Ähnliche Präsentationen
T - Test Prüfung des Mittelwerteunterschieds bei abhängigen und unabhängigen Stichproben.
Advertisements

Modellprämissen der linearen Regression
Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Berechnung des Korrelationskoeffizienten Vorbemerkung. Der Korrelationskoeffizient ist im Grunde ein Bruch aus 3 unvollständig berechneten statistischen.
Induktive Statistik: Regressionsanalyse
Physikalische Messgrößen
Theorie psychometrischer Tests, III
Forschungsstrategien Johannes Gutenberg Universität Mainz
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2005/2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Der Produkt-Moment- Korrelationskoeffizient Der Produkt-Moment Korrelationskoeffizient gibt Stärke und Richtung des linearen Zusammenhanges zweier Variablen.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2005/2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
A-Priori Kontraste Prüfung des Mittelwerteunterschieds von Faktorstufen bzw. Kombinationen von Faktorstufen: z.B.: oder.
Der Binomialtest Man habe einen wahren Anteil P.
10.Gravitationstheoretischer Ansatz
Hypothesen testen: Grundidee
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
Prüfung statistischer Hypothesen
Tutorat II Multiple Korrelation Mediator- Moderatoranalyse
Konzentrationsmaße (Gini-Koeffizient, Lorenz-Kurve) Konzentrationsmaße Kennwert für die wirtschaftliche Konzentration Typische Beispiele: Verteilung des.
Datenmatrix. Datentabelle für 2 Merkmale Kontingenztafel der absoluten Häufigkeiten.
Datenmatrix.
Korrelationskoeffizient nach Bravais-Pearson Eigenschaften X und Y unabhängig.
Methoden der Politikwissenschaft Regressionsanalyse Siegfried Schumann
Tutorium
Tutorium
5. Abbildende versus erklärende Modelle –
(Gini-Koeffizient, Lorenz-Kurve)
Vorlesung: ANOVA I
Eigenschaften der OLS-Schätzer
Einfache Regressionsgleichung
Probleme der Modellspezifikation
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Externe Bewertung in IB-Biologie
Ausgleichungsrechnung I
Vergleich der 3 Arten des t-Tests Testergebnisse berichten
Chi Quadrat Test Tamara Katschnig.
STATISIK LV Nr.: 1375 SS März 2005.
Seminar: Datenerhebung
STATISIK LV Nr.: 0028 SS Mai 2005.
Statistik: Mehr zur Regression.
Kapitel 10 Multikollinearität
STATISIK LV Nr.: 1375 SS April 2005.
Kapitel 2 Das klassische Regressionsmodell
Kapitel 19 Kointegration
Ökonometrie I Modellvergleich (Übersicht) Ökonometrie I2 Vergleich von Modellen Fragestellungen für Modellvergleich 1.Fehlende Regressoren.
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
1 Stichprobenverfahren zur Qualitätssicherung Hilfestellung der Statistik in der Wirtschaftsprüfung.
2.4 Residualkomponente und Korrelogramm
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Statistik Statistik I Seminar + Blockveranstaltung Statistik I
Statistik – Regression - Korrelation
Die einfache/multiple lineare Regression
2.4 Residualkomponente und Korrelogramm
STATISIK LV Nr.: 1852 WS 2005/ Jänner 2006.
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
Der Binomialtest Man habe einen wahren Anteil P. Kann man aufgrund von p sagen, daß in der Population tatsächlich der Anteil P zugrunde liegt? [Beispiele]
Varianzanalyse und Eta²
Phi-Koeffizient: Alternative Berechnungsart
Testtheorie (Vorlesung 13: ) Wiederholung: Richtigstellung
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
 Präsentation transkript:

Mehrfachregressionen Beispiel: Erklärung der Attraktivität von Städten für die Kunden des Einzelhandels Kundenbewertung B werde durch Umfrage ermittelt (Skala von 0 .. 10) Vermutung: B hängt entscheidend von Stadtgröße (EH-Fläche) und Hochwertigkeit des Güterangebotes (Umsatz/qm) ab

Erklärung der Standortattraktivität durch Mehrfachregression

Grafische Interpretation: Attraktivität B Umsatz U Fläche F a

Ergebnis im Beispiel: Zusammenhang ist rel. eng (hohes R2) Nur Fläche ist signifikant (t-Wert > 3) Koeffizienten geben keine Gewichtung von F und U an

Oft vorteilhaft: Einzelwerte zunächst standardisieren

Standardisierte Werte:

Koeffizienten ändern sich natürlich Bestimmtheitsmaß R2 und t-Werte aber unverändert

Wesentlicher Vorteil der Standardisierung: Koeffizienten = aussagekräftige Gewichte

Typischer Excel-Ausdruck (Auszug):

Wichtige Prüfmaße Bestimmtheitsmaß R2: Anteil erklärter Y-Abweichungen vom Mittelwert/Summe der Y-Abweichungen vom Mittelwert = Quadrat des Korrelationskoeffizienten R zwischen geschätzten und tatsächlichen Y-Werten; je näher an +1, desto besser Korrigiertes Bestimmtheitsmaß R2korr: Berücksichtigt Zahl der erklärenden Variablen (-) im Verhältnis zur Zahl der Schätzwerte (+) und somit Zahl der „Freiheitsgrade“; kann sinken, obwohl R2 steigt F-Wert: Prüft Gesamtverläßlichkeit der Schätzung, d.h. Wahrscheinlichkeit dafür, daß die Korrelation nicht nur zufällig besteht. F-Wert muß größer als kritischer F-Wert sein t-Wert = Koeffizient/Standardfehler: prüft Verläßlichkeit einzelner Koeffizienten, sollte nach Faustregel absolut größer als 3 sein Multikollinearität: einzelne oder alle erklärende Variablen sind voneinander linear abhängig (Korrelationsmatrix) => schränkt Erklärungskraft ein, kann zu falschen Vorzeichen und Werten führen Durbin-Watson-Test: prüft Autokorrelation (Residuen sind voneinander nicht unabhängig => Schätzung unzuverlässig): Residuen sollten innerhalb +/- 2* Standardabweichung liegen