Gliederung 1. Einführung

Slides:



Advertisements
Ähnliche Präsentationen
T-Tests und Varianzanalysen
Advertisements

Tutorat Statistik II im SS 09 zweifaktorielle Varianzanalyse
Tutorat Statistik II im SS 09 Zufallseffekte & Messwiederholung
Tutorat Statistik II im SS 09 Mediator- & Moderatoranalyse
Korrektur Tutoratsaufgaben V
Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Thema der Stunde I. Einführung in die Varianzanalyse:
EmPra Der Einfluss und die Verarbeitung von emotionalen Reizen
Einfaktorielle Varianzanalyse
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-28.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
A-Priori Kontraste Prüfung des Mittelwerteunterschieds von Faktorstufen bzw. Kombinationen von Faktorstufen: z.B.: oder.
Der Zusammenhang metrischer Merkmale
Mehrfachregressionen
Ein frohes und erfolgreiches Jahr
Hypothesen testen: Grundidee
Prüfung statistischer Hypothesen
Effektgrößen, Kontraste & Post-hoc-Tests
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
Was steht in einer ANOVA - Tabelle?
Fragen Was wird mit der Alphafehler-Kumulierung bzw. –inflation bezeichnet? Wie hoch ist die Wahrscheinlichkeit bei einer Untersuchung mit 4 Gruppen einen.
Strukturgleichungsmodelle
Nachholung der Vorlesung vom Freitag
Ab nächster Woche wird die Übungsgruppe Gruppe 2: Henrike Berg Di SR 222 wegen Personalmangel eingestellt.
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Test auf Normalverteilung
Klausur am :00 bis 13:00 Hörsaal Loefflerstraße und Hörsaal Makarenkostraße.
Tutorium
Tutorium
Tutorium
Unser neuntes Tutorium
Unser zehntes Tutorium Materialien unter:
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Unser sechstes Tutorium Materialien unter:
Vorlesung: ANOVA I
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Deutsch als Zweitsprache: Experimentelle Methoden WS 2013/2014
Varianzanalyse IV: Messwiederholung
Einführung in die beurteilende Statistik
Vergleich der 3 Arten des t-Tests Testergebnisse berichten
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Chi Quadrat Test Tamara Katschnig.
Seminar: Datenerhebung
Forschungsmodell H1 – H5: Ein- und Zweifaktorielle Varianzanalysen Varianzanalyse am Beispiel des Datensatzes zur Shell-Jugendstudie 1992 Plakat vorgestellt.
Varianzanalyse III: Zweifaktorielle Varianzanalyse
Das Allgemeine Lineare Modell (ALM)
STATISIK LV Nr.: 1375 SS April 2005.
STATISIK LV Nr.: 1375 SS März 2005.
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0028 SS Juni 2005.
STATISIK LV Nr.: 0021 WS 2005/06 8. November 2005.
Modul Statistische Datenanalyse
SStotal SStotal SStreat SSerror SStreat SSerror Biomasse (g) wenig
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Vorschlag zur Abfassung einer PPT-Präsentation des Planungsreferats
Veranstaltung 4.
Die einfache/multiple lineare Regression
Varianzanalyse Teststatistik: F – Test -> vergleich zweier Varianzen -> Grundlage der Varianzanalyse Welche „Varianzen“ werden miteinander verglichen?
Soziale Urteilsbildung Lozo, Soziale Urteilsbildung, AE Sozialpsychologie, SS 2004 Laienhafte Inferenzstrategien oder „the intuitive psychologist“ 2: Urteilsheuristiken.
setzt Linearität des Zusammenhangs voraus
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Varianzanalyse und Eta²
Thema der Stunde Varianzanalyse mit Messwiederholung
1)Inwieweit können die Werte in Y auf der Basis zweier unabhängiger Variablen X1 und x2 „erklärt“ werden? 2)Kann auf der Basis der vorliegenden Stichprobenergebnisse.
ANOVA für unabhängige Daten.
 Präsentation transkript:

Gliederung 1. Einführung 2. Anwendungsvoraussetzungen und –empfehlungen 3. Einfaktorielle Varianzanalyse 4. Zweifaktorielle Varianzanalyse 5. Erweiterungen der Varianzanalyse

1. Einführung Die Varianzanalyse untersucht die Wirkung, aber nicht die Stärke, ein (oder mehrerer) unabhängiger Variablen auf ein (oder mehrerer) abhängiger Variablen. Unabhängige Variable muss mindestens nominal skaliert sein. Abhängige Variable muss metrisch sein. Unabhängige Variablen = Faktoren Ausprägungen der unabhängigen Variablen = Faktorstufen

1. Einführung Bezeichnung des Verfahrens Mehrdimensionale Varianzanayse Ein oder mehrere Mindestens 2 usw. Dreifaktorielle Varianzanalyse 3 1 Zweifaktorielle Varianzanalyse 2 Einfaktorielle Varianzanalyse Bezeichnung des Verfahrens Zahl der unabhängigen Variablen Zahl der abhängigen Variablen

1. Einführung Wichtigstes Analyseverfahren zur Auswertung von Experimenten Beispiele: - Einfluss unterschiedlicher Diäten auf das Körpergewicht - Einfluss unterschiedlicher Düngemittel auf Ernteertrag - Bei Experimenten: Vergleiche von Experimental- und Kontrollgruppen

2. Anwendungsvoraussetzungen und- empfehlungen Daten mit bestimmten Skalenniveau Normalverteilung Varianzhomogenität, d.h. die Varianz der Beobachtungswerte ist annähernd gleich. Theoretische Frage, die durch die Varianzanalyse beantwortet werden soll, darf sich nicht erst aus den Daten ergeben.

2. Anwendungsvoraussetzungen und- empfehlungen Stichprobe sollte Grundgesamtheit repräsentieren. Additivität, d.h. Einfluss der unabhängigen Variable auf die Ergebnisvariable ist unabhängig von dem Einfluss einer Störvariablen auf die Ergebnisvariable. Die Faktoren müssen verschieden sein.

3. Einfaktorielle Varianzanalyse 3. Einfaktorielle Varianzanalyse Beispiel: Wie wirkt sich die Anzahl der Praktika auf das Einkommen der ersten Tätigkeit nach dem Studium aus? Studiengänge: WiWi, Masch, EW (Verwendung des „Hochschulgesamtdatensatzes_2003-2004pur.sav“) 1 unabhängige Variable (=Faktor) Anzahl der Praktika gruppiert 3 Stufen: - kein Praktikum - 1 - 2 Praktika - 3 – 5 Praktika 1 abhängige Variable Höhe des Einkommens der ersten Tätigkeit

3. Einfaktorielle Varianzanalyse Normalverteilung 0,363 > 0,05

3. Einfaktorielle Varianzanalyse 0,074 > 0,05

3. Einfaktorielle Varianzanalyse kein Praktikum: Mittelwerte 1-2 Praktika: 3-5 Praktika: Gesamtmittelwert:

3. Einfaktorielle Varianzanalyse

3. Einfaktorielle Varianzanalyse Sind die Unterschiede der Einkommensmittelwerte auf die Anzahl der Praktika zurückzuführen? Es gibt Unterschiede zwischen den Mittelwerten, d.h. es gibt einen Einfluss der Anzahl der Praktika auf das Einkommen ABER: Die von den Absolventen angegebenen Werte (= Beobachtungswerte) streuen um die Mittelwerte der Faktoren -> Diese Streuung ist auf andere Einflüsse nicht auf die Anzahl der Praktika zurückzuführen.

3. Einfaktorielle Varianzanalyse 2.423,00 1 - 2 3 - 5 nicht erklärte Abweichung erklärte Abweichung Einkommen in € 2.073,54 1.630,01 Anzahl der Praktika …Mittelwert der Beobachtungswerte einer Faktorstufe (g); In der Grafik sind die Mittelwerte der Stufen 2 und 3 angegeben …Beobachtungswert; g= Faktorstufe, k= Nummer des Beobachtungswert innerhalb der Faktorstufe

3. Einfaktorielle Varianzanalyse Grundlage des Verfahrens ist die Zerlegung der Gesamtvarianz in eine Varianz innerhalb der Gruppen und in eine Varianz zwischen den Gruppen Gesamtabweichung = Erklärte Abweichung + Nicht erklärte Abweichung Summe der quad-rierten Gesamt-abweichungen Summe der quad-rierten Abweichungen zwischen den Faktor-stufen Summe der quadrierten Abweichungen innerhalb der Faktorstufen

3. Einfaktorielle Varianzanalyse Abweichungsquadrate Zwischen den Gruppen: 44798886,31 = Innerhalb der Gruppen: 413414411,68 = Gesamt: 458213297,99 =

3. Einfaktorielle Varianzanalyse Freiheitsgrade: Zwischen: k – 1 hier: 3 – 1 = Innerhalb: n – k hier: 351 – 3 =

3. Einfaktorielle Varianzanalyse Bestimmung der Mittel der Quadrate:

3. Einfaktorielle Varianzanalyse Der empirische F-Wert

3. Einfaktorielle Varianzanalyse Prüfung der statistischen Unabhängigkeit In Worten: Nullhypothese: bezüglich des Einkommens bestehen keine Unter- schiede in der Wirkung durch die Anzahl der Praktika Alternativhypothese: Unterschiede sind vorhanden Die Prüfung erfolgt nun anhand des Vergleichs von empirischen mit dem theoretischen F-Wert. Der theoretische F-Wert ist abzulesen in der F-Werte-Tabelle für das jeweilige Signifikanzniveau (Im Beispiel stets 5 %), mit Hilfe der Freiheitsgrade.

3. Einfaktorielle Varianzanalyse Prüfung der statistischen Unabhängigkeit -> Nullhypothese wird verworfen Im Beispiel wird die Nullhypothese auch verworfen, d.h. die Anzahl der Praktika haben einen unterschiedlichen Einfluss auf das Einkommen. Bei SPSS ist diese aufwendige Berechnung unnötig, da hier automatisch die Prüfung der statistischen Unabhängigkeit erfolgt. 0,000 < 0,05 -> Nullhypothese wird verworfen

3. Einfaktorielle Varianzanalyse Da die Nullhypothese verworfen wurde und sich das Einkommen signifikant hinsichtlich der Mittelwerte der Anzahl der Praktika unterscheidet, stellt sich nun die Frage: Welche von den Mittelwerten sich paarweise voneinander unterscheiden? Bzw. Welche Anzahl von Praktika ist für diese Signifikanz verantwortlich? Dazu verwendet man Post-hoc-Tests.

3. Einfaktorielle Varianzanalyse Post-hoc-Test SPSS bietet verschiedene Tests an Im Folgenden soll der Scheffé -Test angewendet werden:

3. Einfaktorielle Varianzanalyse Post-hoc-Test Nur die Gruppe „1 - 2 Praktika“ unterscheidet sich signifikant von den anderen Gruppen Die Abweichung zwischen den Gruppen „Kein Praktikum“ und „3 - 5 Praktika“ ist nicht signifikant -> offenbar zufällige Abweichungen

4. Zweifaktorielle Varianzanalyse 4.1. Problemformulierung Überprüfung, wie eine abhängige Variable von 2 unabhängigen Variablen ( = Faktoren) beeinflusst wird Varianzanalyse lässt sich auch mit 2 oder mehr Faktoren und einer metrischen abhängigen Variable durchführen  Untersuchungsanordnung heißt faktorielles Design Faktor „A“ hat G Stufen und „B“ hat H Stufen  insgesamt ergeben sich G x H Faktorstufenkombinationen zweifaktorielle Varianzanalyse erlaubt die Erfassung des gleichzeitigen Wirksamwerdens zweier Faktoren, indem das Vorliegen von Wechselwirkungen (Interaktionen) getestet wird

4.2. Analyse der Abweichungsquadrate Gesamtstreuung (SSt) Streuung zwischen Streuung innerhalb der den Gruppen (SSb) Gruppen (SSw) Streuung durch Streuung durch Streuung durch Faktor A (SSA) Faktor B (SSB) Wechselwirkung von A und B (SSAxB)

4.2. Analyse der Abweichungsquadrate daraus folgt: SSt = SSb + SSw SSb = SSA + SSB + SSAxB  SSt = SSA + SSB + SSAxB + SSw

4.2. Analyse der Abweichungsquadrate kombinierte Wirkung der Faktoren auf 1 Zelle setzt sich zusammen aus Gesamtmittelwert μ Wirkung αg Wirkung βh Interaktionswirkung (αβ)gh  yghk = μ + αg + βh + (αβ)gh + εghk yghk = Beobachtungswert μ = Mittelwert der Grundgesamtheit αg = tatsächlicher Einfluss des Faktors A βh = tatsächlicher Einfluss des Faktors B (αβ)gh = tatsächlicher Interaktionseffekt zwischen der g-ten Stufe von α und der h-ten Stufe von β εghk = Zufallseffekt durch nicht im Experiment kontrollierte Einflüsse

4.2. Analyse der Abweichungsquadrate Gesamtstreuung: um Einfluss der verschiednen Objekte zu überprüfen, zerlegen wir die Gesamtstreuung in die durch die jeweiligen Effekte erklärte Streuung und die nicht erklärte Reststreuung G H K _  SSt = ∑ ∑ ∑ (yghk – y)² g=1 h=1 k=1

4.2. Analyse der Abweichungsquadrate Quadratsummen der Haupteffekte: die isolierten Effekte von Faktor A und B, die man auch als Haupteffekte bezeichnet, errechnen sich aus den Abweichungen des Zeilen- bzw. Spaltenmittel vom Gesamtmittel G _ _ SSA = H * K * ∑ (yg – y)² g=1 H _ _ SSB = G * K * ∑ (yh – y)² h=1 G = Zahl der Ausprägungen des Faktors A H = Zahl der Ausprägungen des Faktors B K = Zahl der Elemente in Zelle (g, h) yg = Zeilenmittelwert yh = Spaltenmittelwert

4.2. Analyse der Abweichungsquadrate Interaktionseffekt: G H _ ^ SSAxB = K * ∑ ∑ (ygh – ygh)² g=1 h=1 K = Zahl der Elemente in Zelle (g, h) G = Zahl der Ausprägungen des Faktors A H = Zahl der Ausprägungen des Faktors B ygh = Mittelwert in Zelle (g, h) (Schätzwert mit Interaktion) ^ ygh = Schätzwert (ohne Interaktion) für Zelle (g,h) Schätzwert ygh ist der Wert, der für die Zelle (g,h) zu erwarten wäre, wenn keine Interaktion vorläge ^ _ _ _ ygh = yg + yh - y  Abweichung des tatsächlich beobachteten Mittelwertes von diesem Schätzwert ygh ergibt ein Maß für den Interaktionseffekt

4.2. Analyse der Abweichungsquadrate Reststreuung: „Streuung innerhalb der Zellen“ G H K _ SSw = ∑ ∑ ∑ (yghk – ygh)² g=1 h=1 k=1

4.2. Analyse der Abweichungsquadrate Freiheitsgrade: (= die um 1 verminderte Anzahl der Faktorstufen) dfA = G – 1 dfB = H – 1 dfAxB = (G – 1) (H – 1) dfw = G * H * (K – 1) dft = G * H * K – 1 dfb = G * H – 1  dft = dfA + dfB + dfAxB + dfw

4.2. Analyse der Abweichungsquadrate Varianzschätzungen: Quadratsummen durch Freiheitsgrade dividieren σ A² = SSA dfA bei σ B², σ W² usw. analog

4.3. Prüfung der statistischen Unabhängigkeit Hypothesen zweifaktorielle Varianzanalyse überprüft 3 verschiedene Nullhypothesen: - die unter den Stufen des Faktors A beobachteten Untersuchungseinheiten gehören Grundgesamtheiten mit den gleichen Mittelwerten an (Ho: μ1 = μ2 = … = μg) - die unter den Stufen des Faktors B beobachteten gleichen Mittelwerten an (Ho: μ1 = μ2 = … = μh) - die Zellenmittelwerte der Faktorstufenkombinationen μgh setzen sich additiv aus den Haupteffekten zusammen (Ho: μgh = μg + μh - μ) oder kurz. zwischen den beiden Faktoren besteht keine Interaktion  Nullhypothese: Es gibt keinen Unterschied in den Mittelwerten der Faktor- bzw. Interaktionsstufen Alternativhypothese H1: Mittelwerte nicht gleich

4.3. Prüfung der statistischen Unabhängigkeit Signifikanztests: Nullhypothesen werden geprüft, indem die Varianzen durch die Fehlervarianz geteilt wird und so die F – Werte ermittelt werden  ist empirischer F – Wert größer als kritischer wird Nullhypothese auf dem 1 oder 5% - Niveau verworfen _ _ σ A² = ∑ (yg - y)² / (G – 1) FA = σ A² / σ w²  FB und FAxB analog kritischer F – Wert: kann einer Tabelle entnommen werden

4.3. Prüfung der statistischen Unabhängigkeit Varianzaufklärung: Ermittlung des prozentualen Anteils der Variation in der abhängigen Variablen der auf die beiden Haupteffekte und die Interaktion zurückgeführt werden kann Faktor A: η = SSA / SSt * 100%  analog für B und AxB

4.4. Post – hoc – Test Welche Faktorstufen unterscheiden sich im Fall einer signifikanten Wirkung des Faktors (z.B. A) im Einzelnen voneinander?  z.B.: mit Scheffé – Test

4.5. Grafische Analyse Ordinale Interaktionen  beide Haupteffekte eindeutiginterpretierbar b1 b2 a2 a1 a1 a2 b1 b2

4.5. Grafische Analyse Hybride Interaktionen  Haupteffekt B ist eindeutig interpretierbar; Faktor A sollte nicht interpretiert werden b1 b2 a1 a2 a1 a2 b1 b2

4.5. Grafische Analyse Disordinale Interaktionen  beide Haupteffekte für sich inhaltlich bedeutungslos; Unterschiede zwischen a1 und a2 nur in Verbindung mit den Stufen des Faktors B und Unterschiede zwischen b1 und b2 nur in Verbindung mit den Stufen des Faktors A interpretierbar b1 b2 b1 b2 a1 a2 a1 a2

5. Ausgewählte Erweiterungen der Varianzanalyse 1.) Ungleich besetzte Zellen am Prinzip der Streuungszerlegung ändert sich nichts Gewichtung der einzelnen Beobachtungswerte! bei ungleichen Zellenumfängen: Schätzung des harmonischen Mittels aller Zellenumfänge oder allgemeines lineares Modell verwenden

5. Ausgewählte Erweiterungen der Varianzanalyse 2.) Mehrere Faktoren Einbeziehung von mehr als zwei Faktoren in die Analyse dreifaktorielle Varianzanalyse: keine Unterschiede zur zweifaktoriellen Varianzanalyse Aber: zwei Ebenen verschiedener Wechselwirkungen möglich  es gibt Wechselwirkungen zwischen jeweils 2 Faktoren und zusätzlich zwischen allen 3 Faktoren

5. Ausgewählte Erweiterungen der Varianzanalyse 3.) Multiple Tests mit multiplen Tests man erhält Auskunft darüber, welche Faktorstufen voneinander abweichen, wenn man mittels F – Tests die Nullhypothese ablehnt Vergleich einzelner Paare von Mittelwerten oder linearen Kombinationen von Mittelwerten möglich

5. Ausgewählte Erweiterungen der Varianzanalyse 4.) Unvollständige Versuchspläne z.B. durch fehlende Werte nicht alle Zellen besetzt:  bestimmte Vorkehrungen hinsichtlich der Versuchsanordnung und – auswertung sind zu treffen

5. Ausgewählte Erweiterungen der Varianzanalyse 5.) Kovarianzanalyse Kovariate = metrisch skalierte unabhängige, d.h. erklärende Variable in einem faktoriellen Design außer den Faktoren gibt es auch Einflussgrößen auf die abhängige Variable, deren Einbeziehung notwendig sein kann Teil der Gesamtvarianz kann möglicherweise auf die Kovariate zurückgeführt werden  bei Nichterfassung würde sich das zu einer erhöhten Reststreuung führen Vorgehen: zuerst wird der auf die Kovariaten entfallende Varianzteil ermittelt Beobachtungswerte der abhängigen Variablen werden um den durch die Regressionsanalyse ermittelten Einfluss korrigiert und anschließend der Varianzanalyse unterzogen  dadurch wird rechnerisch der Einfluss der Kovariaten bereinigt

5. Ausgewählte Erweiterungen der Varianzanalyse 6.) Mehrdimensionale Varianzanalyse erlaubt Design mit mehr als einer abhängigen Variablen und mehreren Faktoren und Kovariaten Analyse führt zu allgemeinen linearen Modelansatz, der verschiedene multivariate Verfahren (Varianz-, Regressionsanalyse usw.) auf ihren gemeinsamen Kern zurückführt

5. Ausgewählte Erweiterungen der Varianzanalyse 7.) Multiple Classifikation Analysis (MCA) versucht die Stärke des Einflusses der Haupteffekte zu schätzen Varianzanalyse stellt fest, ob ein Unterschied in den Einflussstärken der Faktorstufen eines Faktors vorliegt, macht aber keine Aussage über die Stärke der einzelnen Faktorstufen MCA errechnet Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert und vermittelt so einen Hinweis auf die Stärke der Wirkung

Quellen Backhaus, Klaus u.a. (2003): Multivriate Analysemethoden. Eine Anwendungsorientierte Einführung. 10. überarb. Aufl. Berlin Springer Verlag Brosius, Felix (1998): SPSS 8: Professionelle Statistik unter Windows http://www.statistik.wiso.uni-erlangen.de/ download/ Datenanalyse/Vorlesung%20WS0607/d2handout.pdf Bortz, Jürgen (1999): Statistik für Sozialwissenschaftler, 5. überarb. Aufl., Springer Verlag Berlin Zöfel, Peter (2002): Statistik verstehen. Ein Begleitbuch zur computergestützten Anwendung, Addison – Wesley Verlag München