Logistische Regression und die Analyse von Proportionen

Slides:



Advertisements
Ähnliche Präsentationen
Spektrale Analysen in EMU-R: eine Einführung
Advertisements

Mixed Models Jonathan Harrington library(ez) library(lme4)
Die akustische Analyse von Sprachlauten.
Quellen-Filter Theorie der Sprachproduktion
Spektra von periodischen Signalen. Resonanz.
Formant-Analysen von Vokalen
EmPra Der Einfluss und die Verarbeitung von emotionalen Reizen
Logistic Regression Jonathan Harrington Befehle: logistic.txt.
Logistic Regression Jonathan Harrington Bitte lost.txt und lost2.txt laden – siehe Befehle in logistic.txt.
Generalised linear mixed models (GLMM) und die logistische Regression
Spektrale Analysen in EMU-R: eine Einführung Jonathan Harrington.
Mixed models Jonathan Harrington Die R-Befehle: mixed.txt
Die Varianzanalyse Jonathan Harrington.
Formant-Analysen von Vokalen
Mehrfache und polynomiale Regression Jonathan Harrington Kriteria für die Durchführung einer Regression pfad = "Das Verzeichnis, wo die Daten gespeichert.
Mixed Models Jonathan Harrington library(ez) library(lme4)
Die t-Verteilung Jonathan Harrington.
Mehrfache und polynomiale Regression
Mixed models Jonathan Harrington
Logistische Regression und die Analyse von Proportionen Jonathan Harrington library(lme4) library(lattice) library(multcomp) source(file.path(pfadu, "phoc.txt"))
Formant-Analysen von Vokalen (2) Jonathan Harrington 1, 2 Struktur und Abbildung einer Trackdatei 3, 4. Anwendung von vorhandenen und eigenen Funktionen.
Kovarianz, Korrelation, (lineare) Regression
Kovarianz, Korrelation, (lineare) Regression
Logistic Regression Jonathan Harrington Befehle: logistic.txt.
Logistische Regression und die Analyse von Proportionen Jonathan Harrington library(lme4) library(lattice) library(multcomp) source(file.path(pfadu, "phoc.txt"))
Logistische Regression und psychometrische Kurven
Die t-Verteilung (fortgesetzt)
Wann ist eine Regression zulässig? siehe siehe auch: UCLA Statistics Dept. Denise.
Parametrisierung von Spektra
Mehrfache und polynomiale Regression
Mehrfache und polynomiale Regression Jonathan Harrington Kriteria für die Durchführung einer Regression library(MASS) # ydata.txt und epg.txt in einem.
2 und Logistic Regression Jonathan Harrington Die Analyse von Proportionen: Befehle: proportion.txt Bitte lvoc.txt und lost.txt laden (siehe proportion.txt)
Die Analyse von Proportionen: c2 und Logistic Regression
4. Anwendung der logistic Regression auf die Berechung einer perzeptiven Grenzen zwischen Kategorien Experiment. Anhand der Sprachsynthese wurde ein F2-
Kovarianz, Korrelation, (lineare) Regression
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Kovarianz, Korrelation, (lineare) Regression Jonathan Harrington BITTE NOCH EINMAL dframes.zip (Webseite 4.1) herunterladen und in pfad auspacken.
Die Varianzanalyse ohne Messwiederholung Jonathan Harrington.
Logistische Regression und die Analyse von Proportionen Jonathan Harrington.
Forschungsstatistik II
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Ein frohes und erfolgreiches Jahr
Hypothesen testen: Grundidee
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
Analyse kategorialer Variablen
Wiederholung: Einfache Regressionsgleichung
Histogramm/empirische Verteilung Verteilungen
Chi Quadrat Test Tamara Katschnig.
Logistische Regression
Die t-Verteilung und die Prüfstatistik
Die t-Verteilung und die Prüfstatistik
Varianzanalyse mit Messwiederholungen
Varianzanalyse mit Messwiederholungen
Die t-Verteilung Jonathan Harrington. Standard error of the mean (SE) ist die Standardabweichung von Mittelwerten Ich werfe 5 Würfel und berechne den.
Die t-Verteilung und die Prüfstatistik
Einige Kriterien für die Durchführung einer Varianzanalyse Jonathan Harrington.
Das Allgemeine Lineare Modell (ALM)
Varianzanalyse mit Messwiederholungen
Theorie psychometrischer Tests, II
Kovarianz, Korrelation, (lineare) Regression
Die einfache/multiple lineare Regression
Die Varianzanalyse Jonathan Harrington library(ggplot2) library(ez)
Einige Kriterien für die Durchführung einer Varianzanalyse
Die Varianzanalyse II Jonathan Harrington library(ggplot2) library(ez)
Die Varianzanalyse II Jonathan Harrington library(ggplot2)
Die Varianzanalyse Jonathan Harrington library(lattice) library(ez)
Die Varianzanalyse Jonathan Harrington library(ggplot2) library(dplyr)
Kovarianz, Korrelation, (lineare) Regression
Logistische Regression und psychometrische Kurven
Kovarianz, Korrelation, (lineare) Regression
 Präsentation transkript:

Logistische Regression und die Analyse von Proportionen Jonathan Harrington

Logistische Regression und die abhängige Variable Mit der logistischen Regression kann geprüft werden, ob Proportionen von einem (oder von mehreren) Faktoren beeinflusst werden. Die abhängige Variable ist immer binär, zB: glottalisiert vs. nicht-glottalisiert lenisiert vs. nicht-lenisiert geschlossen vs. offen ja vs. nein True vs. False usw. Logistische Regression in R ohne Messwiederholungen: glm(...family=binomial...) mit Messwiederholungen: lmer(...family=binomial...)

Allgemeine Überlegungen In der logistischen Regression wird eine Regressionslinie an Proportionen durch ein Verfahren genannt 'maximum likelihood' (anstatt least squares) angepasst. Zusätzlich werden in der logistischen Regression log-odds statt Proportionen modelliert logodds(R) = mF + b R ist der binäre Response (abhängige Variable), F ist der Faktor, m und b sind die Neigung und Intercept (y-Achse-Abschnitt) z.B. Response (Abhängige Variable) 20 männlich, 15 weiblich Logodds(R) = log(20/15)

Hohe vs. tiefe Vokale Die Anzahl der Sprecher, die in der Standard-Aussprache von England lost mit einem hohen und tiefen Vokal ist wie folgt. Jahr Hoch Tief 1950 30 5 1960 18 21 1971 15 26 1980 13 20 1993 4 32 2005 2 34 Ändert sich die Proportion der Sprecher, die lost mit hohem/tiefen Vokal zwischen 1950 und 2005 (= hat Jahr einen Einfluss auf die Proportionen von Hoch/Tief?)

Data-Frame und Abbildung Jahr Hoch Tief 1950 30 5 1960 18 21 1971 15 26 1980 13 20 1993 4 32 2005 2 34 # Anzahl Hoch P = c(30, 18, 15, 13, 4, 2) # Anzahl nicht Hoch Q = c(5, 21, 26, 20, 32, 34) # Numerischer Faktor Jahr = c(1950, 1960, 1971, 1980, 1993, 2005) # Proportionen prop = P/(P+Q) # Data-Frame lost = data.frame(P, Q, prop, Jahr) ylim = c(0,1) plot(prop ~ Jahr, data = lost, ylim=ylim, xlab="Jahr", ylab="Proportion (Hoch)")

Analyse der Proportionen mit glm() berechnet eine gerade Linie im Raum log(P/Q) plot(log(P/Q) ~ Jahr, data = lost, ylab="Log-odds (Hoch)") g = glm(cbind(P, Q) ~ Jahr, binomial, data=lost) abline(g)

Analyse der Proportionen mit glm() g = glm(cbind(P, Q) ~ Jahr, binomial, data=lost) anova(g, test="Chisq") Df Deviance Resid. Df Resid. Dev P(>|Chi|) NULL 5 69.363 Jahr 1 61.121 4 8.242 5.367e-15 *** berechnet die Wahrscheinlichkeit, dass Jahr einen Einfluss auf die Proportionen hat – genauer, ob sich diese beiden Linien voneinander signifikant abweichen Die Proportionen wurden vom Jahr beeinflusst c2[1] = 61.1, p < 0.001). (Siehe auch Fußnote, letzte Folie)

Abbildungen Log-odds plot(log(P/Q) ~ Jahr, data = lost, ylab="Log-odds (Hoch)") abline(g) Proportionen plot(prop ~ Jahr, data = lost, ylab="Proportion (Hoch)") ^ m = coef(g)[2] k = coef(g)[1] curve(exp(m*x + k)/(1+ exp(m*x+k)), add=T, col=2)

Logistische Regression und kategoriale Variablen Die Verteilung der t-Glottalisierung nach Gender war wie folgt: glottalisiert nicht-glottalisiert m 110 90 w 82 108 Hat Gender einen Einfluss auf die Proportion glottalisiert? P = c(110, 82) Q = c(90, 108) prop = P/(P+Q) Gender = factor(c("m", "w")) glot = data.frame(P, Q, prop, Gender)

plot(prop ~ Gender, data = glot, ylim=ylim) Abbildung plot(prop ~ Gender, data = glot, ylim=ylim) besser library(lattice) barchart(prop ~ Gender, data = glot, ylim=ylim) g = glm(cbind(P, Q) ~ Gender, binomial, data=glot) anova(g, test="Chisq") Df Deviance Resid. Df Resid. Dev P(>|Chi|) NULL 1 5.4801 Gender 1 5.4801 0 3.73e-14 0.01923 *

Graphische Darstellung der Prüfstatistik Das gleiche wie für den numerischen Faktor (voriges Beispiel): in diesem Fall wird der kategoriale Faktor als 0 (m) und 1 (w) umkodiert. logodds = with(glot, log(P/Q)) x = with(glot, contrasts(Gender)) plot(x, logodds) abline(g) # Berechnung ohne Faktor (nur mit Intercept) g2 = glm(cbind(P, Q) ~ 1, binomial, data = glot) abline(g2, col="red", lty=2) Was ist die Wahrscheinlichkeit, dass sich diese Linien voneinander abweichen?

Lang- und Kurzformat 20 Sprecher, 11 aus Bayern, 9 aus Schleswig-Holstein produzierten Sohn. Ein Hörer beurteilte wie oft der erste Laut als /s/ oder /z/ produziert wurde. Hat Dialekt einen Einfluss auf die Urteile?

g2 = glm(cbind(P, Q) ~ D, binomial, data=kurz.df) Lang- und Kurzformat lang.df kurz.df Urteil D 1 z SH 2 z SH 3 z SH 4 z SH 5 s SH 6 s SH 7 z SH 8 s SH 9 z SH 10 z SH 11 z SH 12 s BY 13 z BY 14 s BY 15 s BY 16 s BY 17 z BY 18 s BY 19 s BY 20 s BY P Q D 1 2 7 BY 2 8 3 SH g2 = glm(cbind(P, Q) ~ D, binomial, data=kurz.df) Äquivalente Ergebnisse g1 = glm(Urteil ~ D, binomial, data=lang.df)

Konvertierung Lang- in kurz-Format Für ein data.frame d, mit binärem Response, R, und Faktor, F. R hat Stufen "J", "N" logischer Vektor temp = d$R == "J" sum T Pdaten = with(d, aggregate(temp, list(F), sum)) sum F Qdaten = with(d, aggregate(!temp, list(F), sum)) P = Pdaten$x Q = Qdaten$x prop = P/(P+Q) Data-Frame (kurz) kurz.df = data.frame(P, Q, prop, F = Pdaten$Group.1)

Abbildungen Aus Langformat Aus Kurzformat tab = with(lang.df, table(D, Urteil)) barchart(tab, auto.key=T, horizontal=F) prop = with(kurz.df, P/(P+Q)) barchart(prop ~ D, data = kurz.df)

kj = read.delim(paste(pfad, "kj.txt", sep="/")) Inwiefern wird die Wahl zwischen 'str' und 'Str' durch (a) Alter (b) Region (c) Geschlecht beeinflusst? Für ein data.frame d, mit binärem Response, R, und Faktor, F: Tabelle tab = with(d, table(F, R)) (R immer an letzter Stelle) Abbildung barchart(tab, auto.key=T, horizontal=F) Modell g = glm(R ~ F, binomial, d) Test anova(g, test="Chisq")

Logistische Regression und psychometrische Kurven Sprachsynthese: F2 von einem Vokal wurde in 10 regelmäßigen auditiven Schritten zwischen einem hohen und niedrigen Wert variiert. Diese synthetischen Tokens wurden 5 Mal wiederholt, randomisiert, und einer Versuchsperson präsentiert. Die Versuchspersonen musste in einem forced-choice Test beurteilen, ob der Token /i/ oder /u/ war. Zu welchem F2-Wert liegt die perzeptive Grenze zwischen diesen Vokalen? P Q prop F2 1 0 5 0.0 2311 2 0 5 0.0 2176 3 0 5 0.0 2023 4 0 5 0.0 1885 5 0 5 0.0 1770 6 0 5 0.0 1667 7 2 3 0.4 1548 8 4 1 0.8 1437 9 5 0 1.0 1351 10 5 0 1.0 1269 Der Vokal mit F2 = 1548 Hz wurde 2 Mal als /u/, 3 Mal als /i/ beurteilt. F2 = c(2311, 2176, 2023, 1885, 1770, 1667, 1548, 1437, 1351, 1269) P = c(rep(0, 6), 2, 4, 5, 5) Q = c(rep(5, 6), 3, 1, 0, 0) prop = P/(P+Q) ui = data.frame(P, Q, prop, F2)

Psychometrische Kurve und Umkipppunkt Abbildung F2 x Proportionen plot(prop ~ F2, data = ui, ylab = "Proportion /u/-Urteile") Modell mit F2 als numerischer Faktor g = glm(cbind(P, Q) ~ F2, binomial, ui) Koeffiziente (Intercept, Neigung) k = coef(g)[1] m = coef(g)[2] Psychometrische Kurve curve(exp(m*x + k)/(1+ exp(m*x+k)), add=T, col=2) Umkipppunkt überlagern (= den F2-Wert, zu dem die Proportion = 0.5) U = -k/m abline(v = U)

Df Deviance Resid. Df Resid. Dev P(>|Chi|) Fußnote Df Deviance Resid. Df Resid. Dev P(>|Chi|) NULL 5 69.363 Jahr 1 61.121 4 8.242 5.367e-15 *** Wenn sich diese Verhältnisse stark von 1 abweichen (wie hier, also 8.242/4 > 1 ), dann haben wir 'over-dispersion': die Proportionen können nicht sehr gut durch ein Binomial modelliert werden. In diesem Fall das Modell noch einmal mit quasibinomial und einen F-Test durchführen gq = glm(cbind(P, Q) ~ Jahr, quasibinomial, data = lost) anova(gq, test="F") Df Deviance Resid. Df Resid. Dev F Pr(>F) NULL 5 69.363 Jahr 1 61.121 4 8.242 29.655 0.005522 ** Die Proportionen wurden vom Jahr beeinflusst F[1,4] = 29.7, p < 0.01).