Phi-Koeffizient: Alternative Berechnungsart

Slides:



Advertisements
Ähnliche Präsentationen
T - Test Prüfung des Mittelwerteunterschieds bei abhängigen und unabhängigen Stichproben.
Advertisements

Der F - Test Man prüft, ob sich 2 Varianzen unterscheiden, mit dem F-Quotienten: Geprüft werden stets die Schätzungen der Populationsvarianzen aufgrund.
Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Streuungsmaß 3: absolute Abweichung vom Mittelwert
Messen „Messen ist die Bestimmung der Ausprägung einer
Thema der Stunde I. Einführung in die Varianzanalyse:
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Gliederung Voraussetzungen für die Berechnung der Produkt-Moment- Korrelation Spearman‘sche Rangkorrelation Beispielrechnung ohne Verbundkorrektur Beispielrechnung.
Forschungsstatistik II
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Heute Prüfung der Produkt-Moment Korrelation
Law of comparative judgement
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2005/2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Der Produkt-Moment- Korrelationskoeffizient Der Produkt-Moment Korrelationskoeffizient gibt Stärke und Richtung des linearen Zusammenhanges zweier Variablen.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2005/2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Der Binomialtest Man habe einen wahren Anteil P.
Mehrfachregressionen
SoSe 06, Statistik mit SPSS
Quantitative Methoden I
Hypothesen testen: Grundidee
Regression und Korrelation
Fragen Was wird mit der Alphafehler-Kumulierung bzw. –inflation bezeichnet? Wie hoch ist die Wahrscheinlichkeit bei einer Untersuchung mit 4 Gruppen einen.
Nachholung der Vorlesung vom Freitag
Vorlesung Die Vorlesung Statistische Methoden II nächste Woche vom 6. Juni ( nächste Woche ) wird auf den 4. Juni (Mittwoch) vorverlegt ! 14 – 16 Zeit:
Nachholung der Vorlesung vom Freitag
Ab nächster Woche wird die Übungsgruppe Gruppe 2: Henrike Berg Di SR 222 wegen Personalmangel eingestellt.
Chi-Quadrat-Test auf Unabhängigkeit I
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Häufigkeiten Gegeben ist eine Datenliste (Urliste) (hier z. B. die Klausur-Noten von 50 Studenten)
Probeklausur Die Probeklausur findet am anstelle der Vorlesung statt. 13. Juni 2003 Nächste Woche!!
Test auf Normalverteilung
Klausur am :00 bis 13:00 Hörsaal Loefflerstraße und Hörsaal Makarenkostraße.
Sportwissenschaftliche Forschungsmethoden SS Statistischer Test.
Tutorium
Das wars!.
(Gini-Koeffizient, Lorenz-Kurve)
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Vorlesung: ANOVA I
Eigenschaften der OLS-Schätzer
Wiederholung: Einfache Regressionsgleichung
Chi Quadrat Test Tamara Katschnig.
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
STATISIK LV Nr.: 1375 SS März 2005.
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Forschungsmethodik II, SS 2010 Vesna Pavlovski & Julia Pichlhöfer
Statistik Statistik I Seminar + Blockveranstaltung Statistik I
Veranstaltung 4.
Die einfache/multiple lineare Regression
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
Zusammenhänge von Variablen ab Nominalskalenniveau
Mathematik für BiologInnen WS 05
setzt Linearität des Zusammenhangs voraus
Untersuchung von Zusammenhängen mittels Umfragen Siegfried Schumann
Die einfache/multiple lineare Regression
Der Binomialtest Man habe einen wahren Anteil P. Kann man aufgrund von p sagen, daß in der Population tatsächlich der Anteil P zugrunde liegt? [Beispiele]
Varianzanalyse und Eta²
Überblick Teil 1 Überblick empirische Forschung
Verteilungen, Varianz Tamara Katschnig.
STATISIK LV Nr.: 1375 SS März 2005.
Deskriptive Statistik, Korrelationen, Mittelwertvergleiche, Graphiken
Exkurs: Chi-quadrat und Modellgüte 1. ist ein Distanzmaß, welches die Distanz zwischen Modellvorhersage und Daten misst.  Je kleiner desto besser ist.
Die einfache/multiple lineare Regression
Konfidenzintervalle und Tests auf Normalverteilung
 Präsentation transkript:

Methoden der Politikwissenschaft II Weitere Zusammenhangsmaße Siegfried Schumann

Phi-Koeffizient: Alternative Berechnungsart ad – bc √ (a+b) (c+d) (a+c) (b+d) Auto Puppe Σ Jungen a b 50 Mädchen c d 60 40 100 Auto Puppe Σ Jungen 35 15 50 Mädchen 25 60 40 100 ad – bc √ (35+15) (25+25) (35+25) (15+25) = 0.204124 (nach Clauß u.a. 1994: 82-83; 294-295)

Phi-Koeffizient: Bekannte Berechnungsart (Aufgabe) expected Auto Puppe Σ Jungen 30 20 50 Mädchen 60 40 100 observed - expected Auto Puppe Σ Jungen 5 -5 50 Mädchen 60 40 100 (observed – expected)2 Auto Puppe Σ Jungen 25 50 Mädchen 60 40 100 (observed – expected)2 / expected Auto Puppe Σ Jungen 0.83 1.25 50 Mädchen 60 40 100 Σ= 4.16; Φ = √ 4.16 / 100 = 0.204124

Beispiele für Werte 1, -1 und 0: Φ = 1 Auto Puppe Σ Jungen 60 Mädchen 40 100 Φ = -1 Auto Puppe Σ Jungen 60 Mädchen 40 100 Φ = 0 (Beispiel 1) Auto Puppe Σ Jungen 30 20 50 Mädchen 60 40 100 Φ = 0 (Beispiel 2) Auto Puppe Σ Jungen 15 10 25 Mädchen 45 30 75 60 40 100 „expected“ aus vorherigem Beispiel!

Phi-Koeffizient: Signifikanzprüfung (Beispiel) Voraussetzung: Erwartete absolute Häufigkeiten in der Indifferenztabelle > 5 Hypothesen: H0: ρxy = 0 H1: ρxy ≠ 0 Signifikanzniveau festlegen: α = 0.01 Prüfgröße: χ2 = Berechnung: χ2 = = 4.17 Kritischer Wert χ2(α=0.01; df=1) = ? N · (ad – bc)2 (a+b) (c+d) (a+c) (b+d) 100 · (35 · 25 – 15 · 25)2 50 · 50 · 60 · 40

Chi-Quadrat-Verteilungen 99 % krit. Wert 1 % aus: Bortz 2005: 80

Kritische Werte der Chi-Quadrat-Verteilung Zusatzbeispiel Kritischer (Chi-Quadrat-) Wert Empirischer Chi-Quadrat Wert (Prüfgröße) Im Beispiel: 4.17 Bei: α = 0.01 4.17 < 6.64 → nicht signifikant

Kontingenzkoeffizient: Berechnung χ2 = 2.036 Vorgehen Strategie 1 Strategie 2 Strategie 3 Strategie 4 Σ Instruktion frei 6 3 4 16 Regel 1 5 2 Regel 2 1 8 13 11 9 7 40 = 0.22 df.: 6 (nach Clauß u.a. 1994: 85-87; 295-297)

Kontingenzkoeffizient: Signifikanzprüfung Voraussetzung: Erwartete absolute Häufigkeiten in der Indifferenztabelle > 5 Hypothesen: H0: ρxy = 0 H1: ρxy ≠ 0 Signifikanzniveau festlegen: α = 0.01 Prüfgröße: χ2 = 2.036 Kritischer Wert χ2(α=0.01; df=6) = 16.8 2.036 < 16.8; → nicht signifikant Kritischer (Chi-Quadrat-) Wert

Korrelationsanalyse Interpretation des Korrelationskoeffizienten rxy direkt interpretierbare Werte: +1, 0, -1 Regressionskoeffizient bei z-standardisierten Werten geometrische Interpretation geometrisches Mittel zweier „zusammengehöriger“ Regressionskoeffizienten Wurzel aus „Bestimmtheitsmaß“ plus Vorzeichen des Regressionskoeffizienten Quadrat: Gemeinsame Varianz der beiden Variablen rxy ±.00 ±.10 ±20 ±.30 ±.40 ±.50 ±.60 ±.70 ±.80 ±.90 ± 1 rxy2 .00 .01 .04 .09 .16 .25 .36 .49 .64 .81 1.00

Geometrische Interpretation (1) aus: Krämer 1994: 135

Geometrische Interpretation (2) aus: Krämer 1994: 138

Geometrische Interpretation (3) aus: Krämer 1994: 140

Formeln zur Berechnung von rxy mit:

Signifikanzprüfung für H0: ρxy = 0 (Beispiel) Voraussetzungen: metrische Daten mit (annähernd) Normalverteilung; n ≥ 10 Hypothesen i.d.R.: H0: ρxy = 0 (Abweichung: s. Seite 300 Mitte, 301 unten - 302 oben, 364, 441) H1: ρxy ≠ 0 Signifikanzniveau festlegen: α = 0.01 Prüfgröße: r hier: r = 0.713 (Korrelationskoeffizient) Freiheitsgrade (df.) ermitteln: N – 2 hier: 10 – 2 = 8 Zufallshöchstwert (kritischen Wert) r(α; N-2) ermitteln: Zufallshöchstwert von r für α = 0.01: bei df. = 5: 0.87 bei df. = 10: 0.71 bei df. = 8: 0.774 (Interpolation; Tafel 8, S. 381) 0.713 < 0.774; → nicht signifikant (nach Clauß u.a. 1994: 299-301; 381)

Zufallshöchstwert von r + lineare Interpolation Tabellenwert für df = 8 ? 3/5 der Differenz 2/5 der Differenz df = 5 df = 8 df = 10 0.87 ? 0.71 Differenz: 0.16 2/5 ∙ 0.16 = 0.064 0.71 + 0.064 = 0.774 ! Tafel 8 aus Clauß u.a. 1994: 381

Signifikanzprüfung für H0: ρxy ≠ 0 (Beispiel) Voraussetzungen: metrische Daten mit (annähernd) Normalverteilung; n ≥ 10 Hypothese z.B.: H0: ρxy = 0.9500 H1: ρxy ≠ 0.9500 Signifikanzniveau festlegen: α = 0.05 Fisher´sche z-Transformation für Korrelationskoeffizienten empirisch auftretender Koeffizient: r = 0.9882 → z = 2.5634 Koeffizient gemäß H0: ρxy= 0.9500 → z0 = 1.8318 (Werte grob aus Tafel 24 auf S. 441 ablesbar) t-verteilte Prüfgröße: hier: 1.9356 (bei n = 10) Wenn Prüfgröße ≥ t(α; N-2), dann ist H0 abzulehnen. Freiheitsgrade (df.): N – 2 (hier: 10 – 2 = 8) t(0.05; 8) = 2.31 (t-Verteilung aus Tabelle 4, S. 364) 1.9356 < 2.31; → nicht signifikant (aus: Bleymüller u.a. 1992: 63) (nach Clauß u.a. 1994: 300 Mitte, 301 unten – 302 oben, 364, 441)

Tabelle zur Umrechnung: r → z z-Wert für r = 0.95 ? z-Wert für r = 0.94983: 1.83 z-Wert für r = 0.95080: 1.84 Differenz der z-Werte: 1.84 – 1.83 = 0.01 Differenz der r-Werte aus der Tabelle: 0.95080 -0.94983 = 0.00097 Differenz der r-Werte „0.95“ und „0.94983: 0.95000 -0.94983 = 0.00017 1.83 + (0.00017 / 0.00097 ∙ 0.01) = 1.83175 Tafel 24 aus Clauß u.a. 1994: 441

Wdh: Signifikanzprüfung für H0: ρxy ≠ 0 (Beispiel) Voraussetzungen: metrische Daten mit (annähernd) Normalverteilung; n ≥ 10 Hypothese z.B.: H0: ρxy = 0.9500 H1: ρxy ≠ 0.9500 Signifikanzniveau festlegen: α = 0.05 Fisher´sche z-Transformation für Korrelationskoeffizienten empirisch auftretender Koeffizient: r = 0.9882 → z = 2.5634 Koeffizient gemäß H0: ρxy= 0.9500 → z0 = 1.8318 (Werte grob aus Tafel 24 auf S. 441 ablesbar) t-verteilte Prüfgröße: hier: 1.9356 (bei n = 10) Wenn Prüfgröße ≥ t(α; N-2), dann ist H0 abzulehnen. Freiheitsgrade (df.): N – 2 (hier: 10 – 2 = 8) t(0.05; 8) = 2.31 (t-Verteilung aus Tabelle 4, S. 364) 1.9356 < 2.31; → nicht signifikant (aus: Bleymüller u.a. 1992: 63) (nach Clauß u.a. 1994: 300 Mitte, 301 unten – 302 oben, 364, 441)

Kritische Werte der t-Verteilung → SNV Tafel 4 aus: Clauß u.a. 1994: 364-365

Sonderfälle beim Kontingenzkoeffizienten Punktbiserialer Koeffizient rpbis (Zweizeilenkoeffizient) Variable X alternativ (dichotom) Variable Y metrisch + normalverteilt Beispiel: Körpergrößen in cm falls Variable X ebenfalls normalverteilt: biserialer Koeffizient rbis (→ Lieraturverweis!) f1 / f2: relative Häufigkeiten! (84 / 170 bzw. 86 / 170) 155 160 165 170 175 180 185 n Männer 3 11 15 19 21 12 84 Frauen 17 16 4 2 86 AM Männer: 174.2 cm AM Frauen: 165.1 cm AM insgesamt: 169.6 cm SD aller Werte: 9.09 cm rpbis = 0.50 nach Clauß u.a. 1994: 87/88

Rangkorrelationskoeffizient R (Spearman) Daten: zwei Rangreihen ohne Bindungen Beispiel: Rainer Horst Klaus Mario Peter Tilo Σ Leistung 1 2 3 4 5 6 21 Sympathie 2 3 1 4 6 5 21 di (absolut) 1 1 2 0 1 1 di2 1 1 4 0 1 1 8 Interpretation der Werte: +1: zwei identische Rangreihen -1: zwei gegenläufige Rangreihen Vorzeichen: zeigt die Richtung des Zusammenhangs Vorteil: leicht zu berechnen Nachteil: Zwischen den Rangplätzen werden gleiche Abstände unterstellt (aus r ableitbar!) Abhilfe: Rangkorrelationskoeffizient τ (Tau) berechnen (aber: aufwendiger) später!

Signifikanzprüfung für R (Beispiel), Rkorr oder Rg Voraussetzungen: ordinale Daten; n ≥ 6 Hypothesen: H0: ρxy = 0 H1: ρxy ≠ 0 Signifikanzniveau festlegen: hier: α = 0.01 Prüfgröße: Rangkorrelationskoeffizient (R, Rkorr oder Rg) hier: R = 0.77 Für N ≤ 30: Wenn ≥ R(α; N) (lt. Tafel 18), dann ist H0 abzulehnen. Für N > 30: Wenn ≥ r(α; N-2) (lt. Tafel 8), dann ist H0 abzulehnen. Im Beispiel: n = 6 R(0.01; 6) = 1.00 (nach Tafel 18) < 1.00; → nicht signifikant siehe oben! (nach Clauß u.a. 1994: 88-89, 297-298, 381, 435)

Kritische Werte Rα;N für den Rangkorr.koeffizienten Tafel 18 aus Clauß u.a. 1994: 435

Rangkorrelationskoeffizient Tau (Kendall) - Beispiel Vier Objekte (O) werden von 2 Gutachtern (A und B) beurteilt (Rangfolge) O1 O2 O3 O4 Rangfolge von Gutachter A: 3 4 2 1 Rangfolge von Gutachter B: 3 1 4 2 Bestimmung von Konkordanzen (Wert: „1“) und Diskordanzen (Wert: -1): O1-O2: -1; O1-O3: -1; O1-O4: +1; O2-O3: -1; O2-O4: -1; O3-O4: +1 Summe der Diskordanzen (Vertauschungen): nd = 4 Kendall-Summe: Maximum bei nd = 0, d.h. Normierung, um Werte zwischen „-1“ und „+1“ zu erhalten: Im Beispiel: Achtung: Keine Bindungen! nur monotoner Zusammenhangsanteil! n = Anzahl d. Beobachtungspaare; hier: 4 Anzahl der Paarvergleiche (nach Hochstädter 1991: 158-161)

Eta → Varianzanalyse Beispiel: Sympathie für den Papst x Konfession andere Konfesions- Katholiken Protestanten Konfessionen lose

λ-Maßzahlen für den Zusammenhang zwei diskreten Variablen zwischen zwei diskreten Variablen

Beispiel zur Konstruktion von λ-Maßzahlen Empirischer Chi-Quadrat-Wert: 727.1

Berechnung der λ-Maßzahlen ZI = Zusatzinformation

Beispiel zur Konstruktion von λ-Maßzahlen 4330 5254

Berechnung der λ-Maßzahlen ZI = Zusatzinformation N = 10509

Drittvariablenkontrolle durch Partialkorrelation Formale Bildung (höchster allgemeinbildender Schulabschluß) Autoritarismus Extrem rechte Einstellungen Residuum Residuum Partialkorrelation Regressionen

Vielen Dank für Ihre Aufmerksamkeit!