Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Gliederung 1. Einführung

Ähnliche Präsentationen


Präsentation zum Thema: "Gliederung 1. Einführung"—  Präsentation transkript:

1

2 Gliederung 1. Einführung
2. Anwendungsvoraussetzungen und –empfehlungen 3. Einfaktorielle Varianzanalyse 4. Zweifaktorielle Varianzanalyse 5. Erweiterungen der Varianzanalyse

3 1. Einführung Die Varianzanalyse untersucht die Wirkung, aber nicht die Stärke, ein (oder mehrerer) unabhängiger Variablen auf ein (oder mehrerer) abhängiger Variablen. Unabhängige Variable muss mindestens nominal skaliert sein. Abhängige Variable muss metrisch sein. Unabhängige Variablen = Faktoren Ausprägungen der unabhängigen Variablen = Faktorstufen

4 1. Einführung Bezeichnung des Verfahrens
Mehrdimensionale Varianzanayse Ein oder mehrere Mindestens 2 usw. Dreifaktorielle Varianzanalyse 3 1 Zweifaktorielle Varianzanalyse 2 Einfaktorielle Varianzanalyse Bezeichnung des Verfahrens Zahl der unabhängigen Variablen Zahl der abhängigen Variablen

5 1. Einführung Wichtigstes Analyseverfahren zur Auswertung von Experimenten Beispiele: - Einfluss unterschiedlicher Diäten auf das Körpergewicht - Einfluss unterschiedlicher Düngemittel auf Ernteertrag - Bei Experimenten: Vergleiche von Experimental- und Kontrollgruppen

6 2. Anwendungsvoraussetzungen und- empfehlungen
Daten mit bestimmten Skalenniveau Normalverteilung Varianzhomogenität, d.h. die Varianz der Beobachtungswerte ist annähernd gleich. Theoretische Frage, die durch die Varianzanalyse beantwortet werden soll, darf sich nicht erst aus den Daten ergeben.

7 2. Anwendungsvoraussetzungen und- empfehlungen
Stichprobe sollte Grundgesamtheit repräsentieren. Additivität, d.h. Einfluss der unabhängigen Variable auf die Ergebnisvariable ist unabhängig von dem Einfluss einer Störvariablen auf die Ergebnisvariable. Die Faktoren müssen verschieden sein.

8 3. Einfaktorielle Varianzanalyse 3. Einfaktorielle Varianzanalyse
Beispiel: Wie wirkt sich die Anzahl der Praktika auf das Einkommen der ersten Tätigkeit nach dem Studium aus? Studiengänge: WiWi, Masch, EW (Verwendung des „Hochschulgesamtdatensatzes_ pur.sav“) 1 unabhängige Variable (=Faktor) Anzahl der Praktika gruppiert 3 Stufen: - kein Praktikum Praktika - 3 – 5 Praktika 1 abhängige Variable Höhe des Einkommens der ersten Tätigkeit

9 3. Einfaktorielle Varianzanalyse
Normalverteilung 0,363 > 0,05

10 3. Einfaktorielle Varianzanalyse
0,074 > 0,05

11 3. Einfaktorielle Varianzanalyse
kein Praktikum: Mittelwerte 1-2 Praktika: 3-5 Praktika: Gesamtmittelwert:

12 3. Einfaktorielle Varianzanalyse

13 3. Einfaktorielle Varianzanalyse
Sind die Unterschiede der Einkommensmittelwerte auf die Anzahl der Praktika zurückzuführen? Es gibt Unterschiede zwischen den Mittelwerten, d.h. es gibt einen Einfluss der Anzahl der Praktika auf das Einkommen ABER: Die von den Absolventen angegebenen Werte (= Beobachtungswerte) streuen um die Mittelwerte der Faktoren -> Diese Streuung ist auf andere Einflüsse nicht auf die Anzahl der Praktika zurückzuführen.

14 3. Einfaktorielle Varianzanalyse
2.423,00 1 - 2 3 - 5 nicht erklärte Abweichung erklärte Abweichung Einkommen in € 2.073,54 1.630,01 Anzahl der Praktika …Mittelwert der Beobachtungswerte einer Faktorstufe (g); In der Grafik sind die Mittelwerte der Stufen 2 und 3 angegeben …Beobachtungswert; g= Faktorstufe, k= Nummer des Beobachtungswert innerhalb der Faktorstufe

15 3. Einfaktorielle Varianzanalyse
Grundlage des Verfahrens ist die Zerlegung der Gesamtvarianz in eine Varianz innerhalb der Gruppen und in eine Varianz zwischen den Gruppen Gesamtabweichung = Erklärte Abweichung + Nicht erklärte Abweichung Summe der quad-rierten Gesamt-abweichungen Summe der quad-rierten Abweichungen zwischen den Faktor-stufen Summe der quadrierten Abweichungen innerhalb der Faktorstufen

16 3. Einfaktorielle Varianzanalyse
Abweichungsquadrate Zwischen den Gruppen: ,31 = Innerhalb der Gruppen: ,68 = Gesamt: ,99 =

17 3. Einfaktorielle Varianzanalyse
Freiheitsgrade: Zwischen: k – 1 hier: 3 – = Innerhalb: n – k hier: 351 – 3 =

18 3. Einfaktorielle Varianzanalyse
Bestimmung der Mittel der Quadrate:

19 3. Einfaktorielle Varianzanalyse
Der empirische F-Wert

20 3. Einfaktorielle Varianzanalyse
Prüfung der statistischen Unabhängigkeit In Worten: Nullhypothese: bezüglich des Einkommens bestehen keine Unter- schiede in der Wirkung durch die Anzahl der Praktika Alternativhypothese: Unterschiede sind vorhanden Die Prüfung erfolgt nun anhand des Vergleichs von empirischen mit dem theoretischen F-Wert. Der theoretische F-Wert ist abzulesen in der F-Werte-Tabelle für das jeweilige Signifikanzniveau (Im Beispiel stets 5 %), mit Hilfe der Freiheitsgrade.

21 3. Einfaktorielle Varianzanalyse
Prüfung der statistischen Unabhängigkeit -> Nullhypothese wird verworfen Im Beispiel wird die Nullhypothese auch verworfen, d.h. die Anzahl der Praktika haben einen unterschiedlichen Einfluss auf das Einkommen. Bei SPSS ist diese aufwendige Berechnung unnötig, da hier automatisch die Prüfung der statistischen Unabhängigkeit erfolgt. 0,000 < 0,05 -> Nullhypothese wird verworfen

22 3. Einfaktorielle Varianzanalyse
Da die Nullhypothese verworfen wurde und sich das Einkommen signifikant hinsichtlich der Mittelwerte der Anzahl der Praktika unterscheidet, stellt sich nun die Frage: Welche von den Mittelwerten sich paarweise voneinander unterscheiden? Bzw. Welche Anzahl von Praktika ist für diese Signifikanz verantwortlich? Dazu verwendet man Post-hoc-Tests.

23 3. Einfaktorielle Varianzanalyse
Post-hoc-Test SPSS bietet verschiedene Tests an Im Folgenden soll der Scheffé -Test angewendet werden:

24 3. Einfaktorielle Varianzanalyse
Post-hoc-Test Nur die Gruppe „1 - 2 Praktika“ unterscheidet sich signifikant von den anderen Gruppen Die Abweichung zwischen den Gruppen „Kein Praktikum“ und „3 - 5 Praktika“ ist nicht signifikant -> offenbar zufällige Abweichungen

25 4. Zweifaktorielle Varianzanalyse 4.1. Problemformulierung
Überprüfung, wie eine abhängige Variable von 2 unabhängigen Variablen ( = Faktoren) beeinflusst wird Varianzanalyse lässt sich auch mit 2 oder mehr Faktoren und einer metrischen abhängigen Variable durchführen  Untersuchungsanordnung heißt faktorielles Design Faktor „A“ hat G Stufen und „B“ hat H Stufen  insgesamt ergeben sich G x H Faktorstufenkombinationen zweifaktorielle Varianzanalyse erlaubt die Erfassung des gleichzeitigen Wirksamwerdens zweier Faktoren, indem das Vorliegen von Wechselwirkungen (Interaktionen) getestet wird

26 4.2. Analyse der Abweichungsquadrate
Gesamtstreuung (SSt) Streuung zwischen Streuung innerhalb der den Gruppen (SSb) Gruppen (SSw) Streuung durch Streuung durch Streuung durch Faktor A (SSA) Faktor B (SSB) Wechselwirkung von A und B (SSAxB)

27 4.2. Analyse der Abweichungsquadrate
daraus folgt: SSt = SSb + SSw SSb = SSA + SSB + SSAxB  SSt = SSA + SSB + SSAxB + SSw

28 4.2. Analyse der Abweichungsquadrate
kombinierte Wirkung der Faktoren auf 1 Zelle setzt sich zusammen aus Gesamtmittelwert μ Wirkung αg Wirkung βh Interaktionswirkung (αβ)gh  yghk = μ + αg + βh + (αβ)gh + εghk yghk = Beobachtungswert μ = Mittelwert der Grundgesamtheit αg = tatsächlicher Einfluss des Faktors A βh = tatsächlicher Einfluss des Faktors B (αβ)gh = tatsächlicher Interaktionseffekt zwischen der g-ten Stufe von α und der h-ten Stufe von β εghk = Zufallseffekt durch nicht im Experiment kontrollierte Einflüsse

29 4.2. Analyse der Abweichungsquadrate
Gesamtstreuung: um Einfluss der verschiednen Objekte zu überprüfen, zerlegen wir die Gesamtstreuung in die durch die jeweiligen Effekte erklärte Streuung und die nicht erklärte Reststreuung G H K _  SSt = ∑ ∑ ∑ (yghk – y)² g=1 h=1 k=1

30 4.2. Analyse der Abweichungsquadrate
Quadratsummen der Haupteffekte: die isolierten Effekte von Faktor A und B, die man auch als Haupteffekte bezeichnet, errechnen sich aus den Abweichungen des Zeilen- bzw. Spaltenmittel vom Gesamtmittel G _ _ SSA = H * K * ∑ (yg – y)² g=1 H _ _ SSB = G * K * ∑ (yh – y)² h=1 G = Zahl der Ausprägungen des Faktors A H = Zahl der Ausprägungen des Faktors B K = Zahl der Elemente in Zelle (g, h) yg = Zeilenmittelwert yh = Spaltenmittelwert

31 4.2. Analyse der Abweichungsquadrate
Interaktionseffekt: G H _ ^ SSAxB = K * ∑ ∑ (ygh – ygh)² g=1 h=1 K = Zahl der Elemente in Zelle (g, h) G = Zahl der Ausprägungen des Faktors A H = Zahl der Ausprägungen des Faktors B ygh = Mittelwert in Zelle (g, h) (Schätzwert mit Interaktion) ^ ygh = Schätzwert (ohne Interaktion) für Zelle (g,h) Schätzwert ygh ist der Wert, der für die Zelle (g,h) zu erwarten wäre, wenn keine Interaktion vorläge ^ _ _ _ ygh = yg + yh - y  Abweichung des tatsächlich beobachteten Mittelwertes von diesem Schätzwert ygh ergibt ein Maß für den Interaktionseffekt

32 4.2. Analyse der Abweichungsquadrate
Reststreuung: „Streuung innerhalb der Zellen“ G H K _ SSw = ∑ ∑ ∑ (yghk – ygh)² g=1 h=1 k=1

33 4.2. Analyse der Abweichungsquadrate
Freiheitsgrade: (= die um 1 verminderte Anzahl der Faktorstufen) dfA = G – 1 dfB = H – 1 dfAxB = (G – 1) (H – 1) dfw = G * H * (K – 1) dft = G * H * K – 1 dfb = G * H – 1  dft = dfA + dfB + dfAxB + dfw

34 4.2. Analyse der Abweichungsquadrate
Varianzschätzungen: Quadratsummen durch Freiheitsgrade dividieren σ A² = SSA dfA bei σ B², σ W² usw. analog

35

36

37 4.3. Prüfung der statistischen Unabhängigkeit
Hypothesen zweifaktorielle Varianzanalyse überprüft 3 verschiedene Nullhypothesen: - die unter den Stufen des Faktors A beobachteten Untersuchungseinheiten gehören Grundgesamtheiten mit den gleichen Mittelwerten an (Ho: μ1 = μ2 = … = μg) - die unter den Stufen des Faktors B beobachteten gleichen Mittelwerten an (Ho: μ1 = μ2 = … = μh) - die Zellenmittelwerte der Faktorstufenkombinationen μgh setzen sich additiv aus den Haupteffekten zusammen (Ho: μgh = μg + μh - μ) oder kurz. zwischen den beiden Faktoren besteht keine Interaktion  Nullhypothese: Es gibt keinen Unterschied in den Mittelwerten der Faktor- bzw. Interaktionsstufen Alternativhypothese H1: Mittelwerte nicht gleich

38 4.3. Prüfung der statistischen Unabhängigkeit
Signifikanztests: Nullhypothesen werden geprüft, indem die Varianzen durch die Fehlervarianz geteilt wird und so die F – Werte ermittelt werden  ist empirischer F – Wert größer als kritischer wird Nullhypothese auf dem 1 oder 5% - Niveau verworfen _ _ σ A² = ∑ (yg - y)² / (G – 1) FA = σ A² / σ w²  FB und FAxB analog kritischer F – Wert: kann einer Tabelle entnommen werden

39 4.3. Prüfung der statistischen Unabhängigkeit
Varianzaufklärung: Ermittlung des prozentualen Anteils der Variation in der abhängigen Variablen der auf die beiden Haupteffekte und die Interaktion zurückgeführt werden kann Faktor A: η = SSA / SSt * 100%  analog für B und AxB

40 4.4. Post – hoc – Test Welche Faktorstufen unterscheiden sich im Fall einer signifikanten Wirkung des Faktors (z.B. A) im Einzelnen voneinander?  z.B.: mit Scheffé – Test

41

42

43 4.5. Grafische Analyse Ordinale Interaktionen
 beide Haupteffekte eindeutiginterpretierbar b b2 a2 a1 a a2 b1 b2

44 4.5. Grafische Analyse Hybride Interaktionen
 Haupteffekt B ist eindeutig interpretierbar; Faktor A sollte nicht interpretiert werden b1 b2 a1 a2 a a2 b b2

45 4.5. Grafische Analyse Disordinale Interaktionen
 beide Haupteffekte für sich inhaltlich bedeutungslos; Unterschiede zwischen a1 und a2 nur in Verbindung mit den Stufen des Faktors B und Unterschiede zwischen b1 und b2 nur in Verbindung mit den Stufen des Faktors A interpretierbar b1 b2 b b2 a1 a2 a a2

46

47

48 5. Ausgewählte Erweiterungen der Varianzanalyse
1.) Ungleich besetzte Zellen am Prinzip der Streuungszerlegung ändert sich nichts Gewichtung der einzelnen Beobachtungswerte! bei ungleichen Zellenumfängen: Schätzung des harmonischen Mittels aller Zellenumfänge oder allgemeines lineares Modell verwenden

49 5. Ausgewählte Erweiterungen der Varianzanalyse
2.) Mehrere Faktoren Einbeziehung von mehr als zwei Faktoren in die Analyse dreifaktorielle Varianzanalyse: keine Unterschiede zur zweifaktoriellen Varianzanalyse Aber: zwei Ebenen verschiedener Wechselwirkungen möglich  es gibt Wechselwirkungen zwischen jeweils 2 Faktoren und zusätzlich zwischen allen 3 Faktoren

50 5. Ausgewählte Erweiterungen der Varianzanalyse
3.) Multiple Tests mit multiplen Tests man erhält Auskunft darüber, welche Faktorstufen voneinander abweichen, wenn man mittels F – Tests die Nullhypothese ablehnt Vergleich einzelner Paare von Mittelwerten oder linearen Kombinationen von Mittelwerten möglich

51 5. Ausgewählte Erweiterungen der Varianzanalyse
4.) Unvollständige Versuchspläne z.B. durch fehlende Werte nicht alle Zellen besetzt:  bestimmte Vorkehrungen hinsichtlich der Versuchsanordnung und – auswertung sind zu treffen

52 5. Ausgewählte Erweiterungen der Varianzanalyse
5.) Kovarianzanalyse Kovariate = metrisch skalierte unabhängige, d.h. erklärende Variable in einem faktoriellen Design außer den Faktoren gibt es auch Einflussgrößen auf die abhängige Variable, deren Einbeziehung notwendig sein kann Teil der Gesamtvarianz kann möglicherweise auf die Kovariate zurückgeführt werden  bei Nichterfassung würde sich das zu einer erhöhten Reststreuung führen Vorgehen: zuerst wird der auf die Kovariaten entfallende Varianzteil ermittelt Beobachtungswerte der abhängigen Variablen werden um den durch die Regressionsanalyse ermittelten Einfluss korrigiert und anschließend der Varianzanalyse unterzogen  dadurch wird rechnerisch der Einfluss der Kovariaten bereinigt

53 5. Ausgewählte Erweiterungen der Varianzanalyse
6.) Mehrdimensionale Varianzanalyse erlaubt Design mit mehr als einer abhängigen Variablen und mehreren Faktoren und Kovariaten Analyse führt zu allgemeinen linearen Modelansatz, der verschiedene multivariate Verfahren (Varianz-, Regressionsanalyse usw.) auf ihren gemeinsamen Kern zurückführt

54 5. Ausgewählte Erweiterungen der Varianzanalyse
7.) Multiple Classifikation Analysis (MCA) versucht die Stärke des Einflusses der Haupteffekte zu schätzen Varianzanalyse stellt fest, ob ein Unterschied in den Einflussstärken der Faktorstufen eines Faktors vorliegt, macht aber keine Aussage über die Stärke der einzelnen Faktorstufen MCA errechnet Abweichungen der Gruppenmittelwerte vom Gesamtmittelwert und vermittelt so einen Hinweis auf die Stärke der Wirkung

55 Quellen Backhaus, Klaus u.a. (2003): Multivriate Analysemethoden. Eine Anwendungsorientierte Einführung. 10. überarb. Aufl. Berlin Springer Verlag Brosius, Felix (1998): SPSS 8: Professionelle Statistik unter Windows download/ Datenanalyse/Vorlesung%20WS0607/d2handout.pdf Bortz, Jürgen (1999): Statistik für Sozialwissenschaftler, 5. überarb. Aufl., Springer Verlag Berlin Zöfel, Peter (2002): Statistik verstehen. Ein Begleitbuch zur computergestützten Anwendung, Addison – Wesley Verlag München


Herunterladen ppt "Gliederung 1. Einführung"

Ähnliche Präsentationen


Google-Anzeigen