Forschungsstatistik I

Slides:



Advertisements
Ähnliche Präsentationen
Tutorat Statistik II im SS 09 Mediator- & Moderatoranalyse
Advertisements

Tutorat Statistik II im SS 09 Multiple Regression
Statistik-Tutorat SS 2009 Christina
Modellprämissen der linearen Regression
Induktive Statistik: Regressionsanalyse
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Regression und Korrelation
Strukturgleichungsmodelle
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-17.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-23.
Heute Prüfung der Produkt-Moment Korrelation
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2005/2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Der Produkt-Moment- Korrelationskoeffizient Der Produkt-Moment Korrelationskoeffizient gibt Stärke und Richtung des linearen Zusammenhanges zweier Variablen.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2005/2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Der Binomialtest Man habe einen wahren Anteil P.
Der Zusammenhang metrischer Merkmale
Mehrfachregressionen
Quantitative Methoden I
Latente Variablen – Kennwerte zur Beurteilung von Modellen
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie
Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie
Tutorat II Multiple Korrelation Mediator- Moderatoranalyse
Strukturgleichungsmodelle
Tutorium
Tutorium
Tutorium
Unser letztes Tutorium
Unser siebentes Tutorium
Unser schönstes Tutorium Materialien unter:
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Bestimmung der Regressionsgewichte in der multiplen Regression
Semipartialkorrelation Multiple Korrelation Inkrementelle Validität
Logistische Regression
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Statistik: Mehr zur Regression.
Kapitel 10 Multikollinearität
Multivariate Statistische Verfahren
Forschungsmethodik II, SS 2010 Vesna Pavlovski & Julia Pichlhöfer
Statistik Statistik I Seminar + Blockveranstaltung Statistik I
Statistik – Regression - Korrelation
Die einfache/multiple lineare Regression
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
Varianzanalyse und Eta²
Statistiken je nach Messniveau
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Testtheorie (Vorlesung 13: ) Wiederholung: Richtigstellung
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Fortgeschrittene statistische Methoden SS2020
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
 Präsentation transkript:

Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz Stunde 18.01.05

Themen der Woche Partialkorrelation Multiple Korrelation und Regression Pfadanalyse

Deutungsmöglichkeiten der bivariaten Korrelation Kausalität: X1 ® X2 Latente Drittvariable: Direkte und indirekte Kausalität: x x1 x2 x x1 x2

Partialkorrelation Die Korrelation zweier Variablen, die vom Effekt anderer (spezifizierter) Variablen bereinigt wurden. Prüfung einer Kausalvermutung: rxy komme dadurch zustande, daß z ursächlich auf x und y einwirkt: z x y rzy rzx rxy G

Partialkorrelation Prüfung Sage x aus z voraus und berechne Residuen ex Sage y aus z voraus und berechne Residuen ey Berechne die Korrelation rexey x y rexey z rxy Ist Partialkorrelation (Korrelation rexey) Null, so beruht die Korrelation rxy tatsächlich nur auf der Einwirkung von z.

Partialkorrelation Y aus Z X aus Z ex und ey korrelieren: [Tafelbeispiele]

Datenbeispiel X: Rechnen Y: Sprache Z: Förderdauer rxy=.56 rxz=.72 ryz=.73 Korreliert Rechen und Sprache nur, weil die Kinder Frühförderung erhalten haben?

Datenbeispiel: Korr. der Residuen rxy.z=.07 X: Rechnen Y: Sprache Z: Förderdauer Residuen: Korrelation der Residuen: Ja: Ohne die Frühförderung sind Rechen- und Sprachleistung unabhängig! [Tafelbetrachtung]

Multiple Regression Ziele Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Mit konkreten Meßvariablen Information über die Wichtigkeit einzelner Einflußgrößen im Kontext von Multikollinearität

Multiple Korrelation & Regression Variable X, Y, Z: Sage Z aus X und Y vorher ! Die ß- Koeffizienten müssen nach dem Kleinstquadratkriterium bestimmt werden!

Allgemeine Schätzgleichung Vorhergesagtes Kriterium Beobachtetes Kriterium

Modellformulierung Schätzfehler: Optimierungskriterium für die Regressionsgewichte: wobei Schätzung der Regressionsgewichte

Modellformulierung, standardisiert Kriterium: mit die additive Konstante fällt weg, nur Gewichte für Prädiktoren Schätzung der Regressionsgewichte

Lösung: Normalgleichungen Vektorschreibweise: Multipliziere nacheinander mit jedem Prädiktor, summiere über Fälle und teile durch N, führt auf: Schätzung der Regressionsgewichte

Normalgleichungen in Matrix Notation System: wobei: Lösung: Inverse Prädiktorkorrelationsmatrix vormultiplizieren Schätzung der Regressionsgewichte

3 Variablen Fall Kleinstquadratkriterium: Für den 3 Variablenfall (x,y,z) bequem nach Standardisierung über Normalgleichungen zu lösen! führt auf: [Tafelrechnung]

Multipler Korrelationskoeffizient Bedeutung aus Varianzzerlegung: Schätzung der Regressionsgewichte

Multipler Korrelationskoeffizient Im 3 Variablenfall: 1) Ist die Korrelation der vorhergesagten Werte mit den beobachteten Werten Z 2) Ist immer größer oder gleich der größten Einzelkorrelation 3) Sein Quadrat gibt wieder den Anteil der Vorhersagevarianz an der Gesamtvarianz an:

Multiple Korrelation & Regression Interpretation Sind die Prädiktoren unabhängig, so sind die ß-Gewichte gleich den Kriteriumskorrelationen und die aufgeklärte Varianz ist die Summe der Quadrate der ß-Gewichte 1) Sind die Prädiktoren abhängig (interkorreliert), so unterscheiden wir 3 Fälle: 2) Der Pädiktor enthält Information, die schon der andere Prädiktor enthält: er ist redundant Der Prädiktor unterdrückt irrelevante Varianzanteile in dem anderen Prädiktor: er ist ein Suppressor Der Prädiktor besitzt Kriteriumsvarianz, die der andere Prädiktor nicht besitzt und unterdrückt irrelevante Varianz des anderen Prädiktors: er ist valide und nützlich. Interpretation

Interpretation der Lösung 1. Unabhängige Prädiktoren Bei rein unabhängigen Prädiktoren sind die b- Gewichte identisch mit den Kriteriumskorrelationen Der multiple Determinationskoeffizient ist dann einfach die Summe der quadrierten Kriteriumskorrelationen (=erklärter Varianzanteil) Interpretation

Interpretation: abhängige Prädiktoren Untersuchung der Abhängigkeit im Kontext von Multikollinearität Bedeutet die Abhängigkeit Redundanz, d.h. messen die vielen Variablen Aspekte gemeinsam, so daß man prinzipiell weniger (latente) Variablen benötigt? (unerwünschter Aspekt) Erfassen die Abhängigkeiten Teile der Kontamination der Variablen und wirken so optimierend auf die gesamte Schätzgleichung (Suppressionseffekt, erwünscht)? Interpretation

Multiple Korrelation & Regression Redundanz Die Variable j ist redundant zur Vorhersage von Variable k, Wenn gilt: Nützlichkeit der Variable j zur Vorhersage von k: U ist der Betrag, um den R2 wächst durch Aufnahme von Variable j in die Gleichung. [Tafelbeispiele] Interpretation

Identifikation von Suppressionseffekten Für mehr als 3 Variablen über die Nützlichkeit: Variable j ist Suppressor, wenn gilt Also die Zunahme der erklärten Varianz durch Aufnahme der Variable muss grösser sein als die quadrierte einzelne Validität. Für nur 3 Variablen (x,y,z) relativ einfach (z = Kriterium): Variable y ist Suppressor, wenn gilt Interpretation

Multiple Korrelation & Regression Suppression rxz ryz=0 rxy X Y Z Y „bindet“ irrelevante Kriteriumsinformation Partialkorrelation rxz.y ist erheblich größer als rxz [Berechnungsbeispiele, Venn-Diagramme]

Pfadanalyse Ziele Prüfung eines a-priori erstellten Hypothesensystems über kausale Abhängigkeiten Beziehungsgeflecht von beobachtbaren Variablen wird über ein System von linearen Gleichung analysierbar Pfadkoeffizienten modellieren direkt und indirekt kausale Effekte

Beziehungen Als lineare Gleichung:

Deutungsmöglichkeiten der bivariaten Korrelation Kausalität: X1 ® X2 Latente Drittvariable: Direkte und indirekte Kausalität: x x1 x2 x x1 x2

Gleichungen aus Pfaden x1 x2 x3 b21 b32 b31 Variablen, von denen Pfeile ausgehen, sind erklärend und stehen rechts vom Gleichheitszeichen Pfadanalyse

Pfade + Messfehler, standardisiert z1 z2 z3 p21 p32 p31 ea eb p2a p3b Additive Konstanten fallen weg Pfadanalyse

Lösung: Normalgleichungen Bilde das innere Produkt jede Zielvariable mit jeder ihrer Prädiktoren, teile durch Anzahl der Fälle N: Annahme: Variablen und Fehler sind unkorreliert: Pfadanalyse

Pfadkoeffizienten Lösung des Gleichungssystems nach den Pfadkoeffizienten gibt: Pfadkoeffizienten haben die Form der b - Gewichte der multiplen Regressionsanalyse. Sie können über dieselben Methoden ermittelt werden (Vormultiplizieren mit der Inversen der entsprechenden Korrelationsmatrix) Pfadanalyse

Fundamentalsatz der Pfadanalyse

Direkte und indirekte Pfade z1 z2 z3 0.5 0.2 0.4 Dekomposition der Korrelation: Direkter kausaler Effekt = Pfadkoeffizient Indirekter kausaler Effekt = Produkt der Pfadkoeffizienten Pfadanalyse

Direkte und indirekte Pfade z1 z2 z3 0.5 0.2 0.4 Variablen z2z1 z3z1 z3z2 Korrelation 0.5 0.4 Direkt kausal Indirekt kausal 0.1 0.2 Total kausal Nichtkausal Pfadanalyse