Forschungsstatistik I

Slides:



Advertisements
Ähnliche Präsentationen
T - Test Prüfung des Mittelwerteunterschieds bei abhängigen und unabhängigen Stichproben.
Advertisements

Tutorat Statistik II im SS 09 Mediator- & Moderatoranalyse
Tutorat Statistik II im SS 09 Multiple Regression
Statistik-Tutorat SS 2009 Christina
Der F - Test Man prüft, ob sich 2 Varianzen unterscheiden, mit dem F-Quotienten: Geprüft werden stets die Schätzungen der Populationsvarianzen aufgrund.
Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Theorie psychometrischer Tests, III
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Regression und Korrelation
„Der Euro: Hart, aber unfair: Die neue Währung als Spielverderber“
Gliederung Voraussetzungen für die Berechnung der Produkt-Moment- Korrelation Spearman‘sche Rangkorrelation Beispielrechnung ohne Verbundkorrektur Beispielrechnung.
Forschungsstatistik II
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-17.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-23.
Heute Prüfung der Produkt-Moment Korrelation
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2005/2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Der Produkt-Moment- Korrelationskoeffizient Der Produkt-Moment Korrelationskoeffizient gibt Stärke und Richtung des linearen Zusammenhanges zweier Variablen.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2005/2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-28.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Der Binomialtest Man habe einen wahren Anteil P.
Das Allgemeine lineare Modell (ALM) - Varianz als Schlüsselkonzept
Der Zusammenhang metrischer Merkmale
Mehrfachregressionen
Quantitative Methoden I
Quantitative Methoden I
Hypothesen testen: Grundidee
Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie
Tutorat Deskriptive Statistik und Wahrscheinlichkeitstheorie
Strukturgleichungsmodelle
Tutorium
Tutorium
Tutorium
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Wiederholung: Einfache Regressionsgleichung
Semipartialkorrelation Multiple Korrelation Inkrementelle Validität
Überblick Statistik Deskriptive Statistik=beschreibende Statistik
Chi Quadrat Test Tamara Katschnig.
Logistische Regression
Statistik: Mehr zur Regression.
Theorie psychometrischer Tests, IV
Forschungsmethodik II, SS 2010 Vesna Pavlovski & Julia Pichlhöfer
Statistik Statistik I Seminar + Blockveranstaltung Statistik I
Veranstaltung 4.
Die einfache/multiple lineare Regression
Zusammenhänge von Variablen ab Nominalskalenniveau
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
Varianzanalyse und Eta²
Phi-Koeffizient: Alternative Berechnungsart
Statistiken je nach Messniveau
Prüft ebenfalls die Annahme der Varianzhomogenität (exakter)
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Testtheorie (Vorlesung 13: ) Wiederholung: Richtigstellung
Deskriptive Statistik, Korrelationen, Mittelwertvergleiche, Graphiken
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Fortgeschrittene statistische Methoden SS2020
 Präsentation transkript:

Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz Stunde 04.01.05

Themen der Woche Korrelation bei Binärdaten: Phi-Korrelation Korrelation von Binärdaten und intervallskalierten Daten: biseriale und punktbiseriale Korrelation Partialkorrelation Multiple Korrelation und Regression

Binärdaten: Dichotome Variablen Binäre Kodierungen können natürlich sein oder künstlich erzeugt durch Definition einer Schranke auf den beiden metrischen Ausgangsvariablen.

Der Phi-Koeffizient Der Phi- Koeffizient gibt eine Korrelation von dichotomen Variablen an, die der Produkt-Moment Korrelation über die zugrundeliegenden Binärdaten entspricht.

Der Phi-Koeffizient Der Phi- Koeffizient muss an der maximal möglichen Korrelation korrigiert werden, wenn schiefe Randverteilungen vorliegen. pt ist die größte auftretende Randfeldproportion, ps die dazu korrespondierende im Feld der anderen Variable mit gleichem Vorzeichen. [Tafelbetrachtung+Rechenbeispiele+Zusammenhang mit CHI-Quadrat]

Phi-Koeffizient aus Chi-Quadrat beobachtet erwartet Erwartete Häufigkeit, wenn beide Merkmale unabhängig sind:

Phi-Koeffizient aus Chi-Quadrat Die Abweichung von der Unabhängigkeitserwartung drückt ein Chi-Quadrat Maß aus: Ferner gilt: Die Phi-Korrelation erhält man aus dem Chi-Quadrat, gerechnet nach der Annahme der Unabhängigkeit der Merkmale [Tafelbeispiel]

Kontingenz von Attributen Zwei Merkmale können mehrfach gestuft sein. Die Abweichung von der Unabhängigkeitserwartung drückt wieder ein Chi-Quadrat Maß aus: beobachtet erwartet

Kontingenz von Attributen Cramer‘s Index: Ist besser geeignet als der Kontingenzkoeffizient: da dieser stets beschränkt ist durch [Tafelrechnung des Beispiels]

Die punkt-biseriale-Korrelation Die Korrelation einer metrischen Variable und einer dichotomen wird bestimmt durch den Mittelwertsunterschied, den die Gruppen mit den den Merkmalen X=0 und X=1 in der Variable Y haben. [Tafelbetrachtung]

Die (punkt)-biseriale-Korrelation oder (Gesamtmittelformeln) Hierin ist p der Anteil der Personen für die X=1 gilt. w ist der Ordinatenabschnitt der Standardnormalverteilung für die Stelle der Dichotomisierung. Die biseriale Korrelation gilt bei begründeter Vermutung, dass die dichotome Variable latent normalverteilt ist. [Rechenbeispiel aus Script]

Die (punkt)-biseriale-Korrelation -3 -2 -1 1 2 3 z 0.1 0.2 0.3 0.4 f(z) z0 = -0.0954 p = 0.538 q = 0.462 w = 0.397 X = 1 X = 0 Korrelation wird durch Gültigkeit der Normalverteilung aufgewertet!

Deutungsmöglichkeiten der bivariaten Korrelation Kausalität: X1 ® X2 Latente Drittvariable: Direkte und indirekte Kausalität: x x1 x2 x x1 x2

Partialkorrelation Die Korrelation zweier Variablen, die vom Effekt anderer (spezifizierter) Variablen bereinigt wurden. Prüfung einer Kausalvermutung: rxy komme dadurch zustande, daß z ursächlich auf x und y einwirkt: z x y rzy rzx rxy G

Partialkorrelation Prüfung Sage x aus z voraus und berechne Residuen ex Sage y aus z voraus und berechne Residuen ey Berechne die Korrelation rexey x y rexey z rxy Ist Partialkorrelation (Korrelation rexey) Null, so beruht die Korrelation rxy tatsächlich nur auf der Einwirkung von z.

Partialkorrelation Y aus Z X aus Z ex und ey korrelieren: [Tafelbeispiele]

Datenbeispiel X: Rechnen Y: Sprache Z: Förderdauer rxy=.56 rxz=.72 ryz=.73 Korreliert Rechen und Sprache nur, weil die Kinder Frühförderung erhalten haben?

Datenbeispiel: Korr. der Residuen rxy.z=.07 X: Rechnen Y: Sprache Z: Förderdauer Residuen: Korrelation der Residuen: Ja: Ohne die Frühförderung sind Rechen- und Sprachleistung unabhängig! [Tafelbetrachtung]

Multiple Korrelation & Regression Variable X, Y, Z: Sage Z aus X und Y vorher ! Die ß- Koeffizienten müssen nach dem Kleinstquadratkriterium bestimmt werden!

Multiple Korrelation & Regression Kleinstquadratkriterium: Für den 3 Variablenfall bequem nach Standardisierung über Normalgleichungen zu lösen! führt auf: [Tafelrechnung]

Multiple Korrelation & Regression Multipler Korrelationskoeffizient Ist die Korrelation der vorhergesagten Werte mit den beobachteten Werten Z 1) Ist immer größer oder gleich die größte Einzelkorrelation 2) Sein Quadrat gibt wieder den Anteil der Vorhersagevarianz an der Gesamtvarianz an: 3)

Multiple Korrelation & Regression Interpretation Sind die Prädiktoren unabhängig, so sind die ß-Gewichte gleich den Kriteriumskorrelationen und die aufgeklärte Varianz ist die Summe der Quadrate der ß-Gewichte 1) Sind die Prädiktoren abhängig (interkorreliert), so unterscheiden wir 3 Fälle: 2) Der Pädiktor enthält Information, die schon der andere Prädiktor enthält: er ist redundant Der Prädiktor unterdrückt irrelevante Varianzanteile in dem anderen Prädiktor: er ist ein Suppressor Der Prädiktor besitzt Kriteriumsvarianz, die der andere Prädiktor nicht besitzt und unterdrückt irrelevante Varianz des anderen Prädiktors: er ist valide und nützlich. [Tafelbeispiele]

Multiple Korrelation & Regression Redundanz Die Variable y ist redundant zur Vorhersage von z, wenn: Nützlichkeit der Variable y zur Vorhersage von z: Gilt so existieren Suppressionseffekte. [Tafelbeispiele]

Multiple Korrelation & Regression Suppression rxz ryz=0 rxy X Y Z Y „bindet“ irrelevante Kriteriumsinformation Partialkorrelation rxz.y ist erheblich größer als rxz [Tafelbeispiele]