Kovarianz, Korrelation, (lineare) Regression

Slides:



Advertisements
Ähnliche Präsentationen
Spektrale Analysen in EMU-R: eine Einführung
Advertisements

Univariate Statistik M. Kresken.
Formant-Analysen von Vokalen
Logistic Regression Jonathan Harrington Befehle: logistic.txt.
Logistic Regression Jonathan Harrington Bitte lost.txt und lost2.txt laden – siehe Befehle in logistic.txt.
Die Varianzanalyse ohne Messwiederholung
Spektrale Analysen in EMU-R: eine Einführung Jonathan Harrington.
Mixed models Jonathan Harrington Die R-Befehle: mixed.txt
Die Varianzanalyse Jonathan Harrington.
Mehrfache und polynomiale Regression Jonathan Harrington Kriteria für die Durchführung einer Regression pfad = "Das Verzeichnis, wo die Daten gespeichert.
Mixed Models Jonathan Harrington library(ez) library(lme4)
Die t-Verteilung Jonathan Harrington.
Mehrfache und polynomiale Regression
Mixed models Jonathan Harrington
Logistische Regression und die Analyse von Proportionen Jonathan Harrington library(lme4) library(lattice) library(multcomp) source(file.path(pfadu, "phoc.txt"))
Formant-Analysen von Vokalen (2) Jonathan Harrington 1, 2 Struktur und Abbildung einer Trackdatei 3, 4. Anwendung von vorhandenen und eigenen Funktionen.
Kovarianz, Korrelation, (lineare) Regression
Logistic Regression Jonathan Harrington Befehle: logistic.txt.
Logistische Regression und die Analyse von Proportionen Jonathan Harrington library(lme4) library(lattice) library(multcomp) source(file.path(pfadu, "phoc.txt"))
Logistische Regression und die Analyse von Proportionen
Die Varianzanalyse Analysis of Variance (ANOVA) Jonathan Harrington
Spektrale Analysen in EMU-R: eine Einführung
Logistische Regression und psychometrische Kurven
Die t-Verteilung (fortgesetzt)
Wann ist eine Regression zulässig? siehe siehe auch: UCLA Statistics Dept. Denise.
Parametrisierung von Spektra
Mehrfache und polynomiale Regression
Mehrfache und polynomiale Regression Jonathan Harrington Kriteria für die Durchführung einer Regression library(MASS) # ydata.txt und epg.txt in einem.
Die Varianzanalyse Analysis of Variance (ANOVA) Jonathan Harrington
2 und Logistic Regression Jonathan Harrington Die Analyse von Proportionen: Befehle: proportion.txt Bitte lvoc.txt und lost.txt laden (siehe proportion.txt)
Die Analyse von Proportionen: c2 und Logistic Regression
Artikulationsstelle, F2-Locus, Locusgleichungen Jonathan Harrington.
Die Varianzanalyse Jonathan Harrington Analysis of Variance (ANOVA) pfad = "Verzeichnis wo Sie anova1 gespeichert haben" attach(paste(pfad, "anova1", sep="/"))
4. Anwendung der logistic Regression auf die Berechung einer perzeptiven Grenzen zwischen Kategorien Experiment. Anhand der Sprachsynthese wurde ein F2-
Kovarianz, Korrelation, (lineare) Regression
Kovarianz, Korrelation, (lineare) Regression Jonathan Harrington BITTE NOCH EINMAL dframes.zip (Webseite 4.1) herunterladen und in pfad auspacken.
Die Varianzanalyse ohne Messwiederholung Jonathan Harrington.
Logistische Regression und die Analyse von Proportionen Jonathan Harrington.
Übung zur Vorlesung Theorien Psychometrischer Tests I
Konzentrationsmaße (Gini-Koeffizient, Lorenz-Kurve) Konzentrationsmaße Kennwert für die wirtschaftliche Konzentration Typische Beispiele: Verteilung des.
Datenmatrix. Datentabelle für 2 Merkmale Kontingenztafel der absoluten Häufigkeiten.
Datenmatrix.
Vorlesung: ANOVA I
Wiederholung: Einfache Regressionsgleichung
Logistische Regression
Die t-Verteilung und die Prüfstatistik
Die t-Verteilung und die Prüfstatistik
Varianzanalyse mit Messwiederholungen
Varianzanalyse mit Messwiederholungen
Die t-Verteilung Jonathan Harrington. Standard error of the mean (SE) ist die Standardabweichung von Mittelwerten Ich werfe 5 Würfel und berechne den.
Die t-Verteilung und die Prüfstatistik
Einige Kriterien für die Durchführung einer Varianzanalyse Jonathan Harrington.
Varianzanalyse mit Messwiederholungen
Statistik: Mehr zur Regression.
Modul Statistische Datenanalyse
SStotal SStotal SStreat SSerror SStreat SSerror Biomasse (g) wenig
Kapitel 2 Das klassische Regressionsmodell
Kapitel 3 Lineare Regression: Schätzverfahren
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Kovarianz, Korrelation, (lineare) Regression
Statistik – Regression - Korrelation
STATISIK LV Nr.: 1852 WS 2005/ Jänner 2006.
setzt Linearität des Zusammenhangs voraus
Die Varianzanalyse Jonathan Harrington library(ggplot2) library(ez)
Kovarianz, Korrelation, (lineare) Regression
Die Varianzanalyse Jonathan Harrington library(lattice) library(ez)
Die Varianzanalyse Jonathan Harrington library(ggplot2) library(dplyr)
Kovarianz, Korrelation, (lineare) Regression
Kovarianz, Korrelation, (lineare) Regression
 Präsentation transkript:

Kovarianz, Korrelation, (lineare) Regression Jonathan Harrington reg.txt sowie epg.txt auf Ihrem Rechner speichern. Den Pfad merken. reg.txt aufmachen, und diese ersten paar Befehle davon durchführen: pfad = "Pfad wo ich epg.txt gespeichert habe" d = read.table(paste(pfad, "epg.txt", sep="/"), header=T) attach(d) names(d)

Kovarianz, Korrelation, (lineare) Regression messen alle inwiefern es eine lineare Beziehung zwischen zwei Variablen gibt…

Einige Daten epg.txt Vk-Reihenfolgen von einem deutschen Muttersprachler. V = /a ɛ ɪ i ɔ ʊ/ F1, F2: F1 und F2-Werte zum Vokaloffset Zwei EPG-Parameter zum selben Zeitpunkt…

Die EPG Parameter COG: Centre of gravity (Gewichtsschwerpunkt) Werte (ein Wert pro Vokal) elektropalatographische Daten. SUM1278 Kontaktsummen, Spalten 1+2+7+8 19

Zusätzliches Beispiel von COG Fig. 7.17: Synchronised waveform (top) anteriority index (middle panel, solid), dorsopalatal index (middle panel, dashed), centre of gravity (lower panel) for just relax. The palatograms are those that occur closest to the time points marked by the vertical dotted lines are occur respectively in [ʤ] and [t] of just and in [l], [k], [s] of relax.

1. Kovarianz Je höher die Kovarianz, umso deutlicher die lineare Beziehung zwischen den Variablen hoch und +ve nah an 0 mittel und -ve 509.6908 -24.26598 -289.516

Berechung der Kovarianz Produkt-Summe der Abweichungen vom Mittelwert y = F2; x = COG; n = length(y) Mittelwert mx = mean(x) my = mean(y) Abweichungen vom Mittelwert dx = x - mean(x) dy = y - mean(y) Kovarianz = Produkt-Summe der Abweichungen dividiert durch n-1 covxy = sum(dx*dy)/(n-1) cov(x,y)

Einige Merkmale der Kovarianz cov(x, y) = cov(y, x) = cov(x,x) var(x) var(x+y) = var(x)+var(y) + 2 * cov(x,y) daher: wenn es keine lineare Beziehung zwischen x und y gibt ist cov(x,y) 0 (Null) sodass var(x) + var(y) var(x+y) =

2. Kovarianz und Korrelation Die Korrelation (Pearson's product-moment correlation), r, ist dasselbe wie die Kovarianz, aber sie normalisiert für die Mengen von x und y r ist die Kovarianz von x, y, dividiert durch deren Standardabweichungen r variiert zwischen -1 und +1 cov(x,y) r = cov(x,y)/(sd(x) * sd(y)) cor(x,y) [1] 0.8917474 [1] 509.6908 xgross = x*1000 cov(xgross,y) [1] 509690.8 cor(xgross,y) [1] 0.8917474

3. Regression y-auf-x Regression: y soll durch x modelliert werden, also durch die Werte von x eingeschätzt werden. Eine lineare Regressionslinie: Eine gerade Linie durch die Verteilung, sodass der Abstand der Punkte zu der Linie minimiert wird. Diese Regressionslinie durchschneidet (mx, my) den Mittelwert (X) der Verteilung

^ Die Regressionslinie: b ist die Die Neigung b = r * sd(y)/sd(x) b = cov(x,y)/var(x) oder k ist das y-Intercept k = my - b*mx ^ y: die eingeschätzten Werte, die auf der R-Linie liegen yhut = b*x + k abline(k, b) Abbildung plot(x,y) Regressionslinie überlagern

Regression und residuals Der residual oder error ist der Unterschied zwischen den tatsächlichen und eingeschätzten Werten. y ^ error = y - yhut

Regression, residuals, SSE SSE = sum-of-the-squares of the error* SSE = sum(( y - yhut)^2) oder error = (y – yhut) SSE = sum(error^2) In der Regression wird die Linie auf eine solche Weise berechnet, dass die SSE (RSS) minimiert wird. *wird auch manchmal RSS residual sum of squares genannt

Die lm() Funktion reg = lm(y ~ x) ~ wird modelliert durch Regressionslinie überlagern abline(reg) plot(x,y) Regressionskoeffiziente coef(reg) (Intercept) x 610.6845 670.2670 Eingeschätzte Werte yhut = predict(reg) yhut = b*x + k Residuals residuals(reg) error = y - yhut SSE deviance(reg) sum(error^2)

Regression: drei sehr wichtige Quantitäten 1. SSE (oder RSS) sum of the squared errors SSE = sum(error^2) oder SSE = deviance(reg) 2. SSY (oder SST): sum-of-the-squared deviations der tatsächlichen Werte SSY = sum( (y - my)^2) 3. SSR: sum of the squared-deviations in y (der Werte, die wegen der Regressionslinie entstehen) ^ SSR = sum((yhut - my)^2) SSY = SSR + SSE SSR + SSE dasselbe SSY

R-squared SSY = SSR + SSE Je besser die Werte durch die Regressionlinie modelliert werden (also je geringer der Abstand zwischen y und y) umso kleiner SSE, sodass im besten Fall SSE = 0 und SSY = SSR oder SSR/SSY = 1 (bedeutet: die tatsächlichen Werte sitzen auf der Linie). ^ R-squared = SSR/SSY beschreibt auch die Proportion der Varianz in y die durch die Regressionlinie erklärt werden kann R-squared variiert zwischen 0 (keine 'Erklärung') und 1 (die Regressionslinie erklärt 100% der Varianz in y).

R-squared (fortgesetzt) SSY = SSR + SSE Diese Quantität SSR/SSY nennt man auch R-squared weil sie denselben Wert hat wie den Korrelationskoeffizient hoch zwei. SSR/SSY cor(x, y)^2 [1] 0.7952134 (und da r zwischen -1 und 1 variiert, muss R-squared zwischen 0 und 1 variieren)

Signifikanz-Test Was ist die Wahrscheinlichkeit, dass ein lineares Verhältnis zwischen x und y besteht?

Signifikanz-Test H0: r = 0 H1: r weicht signifikant ab von 0 (bedeutet: x und y sind miteineander mit einer hohen Wahrscheinlichkeit korreliert). tstat = r/rsb Dies kann mit einem t-test mit n-2 Freiheitsgraden berechnet werden: rsb = Standard-error von r = rsb = sqrt( (1 - r^2)/(n-2)) tstat = r/rsb [1] 12.92187

Signifikanz-Test fstat = tstat^2 [1] 166.9746 Ein F-test mit 1 und n-2 Freiheitsgraden 1 - pf(fstat, 1, n-2) tstat = r/rsb [1] 12.92187 Ein t-test mit n-2 Freiheitsgraden 2 * (1 - pt(tstat, n-2)) bekommt man auch durch cor.test(x,y) [1] 2.220446e-16 = 2.220446 x 10-16 Die Wahrscheinlichkeit, dass die Variablen nicht miteeinander linear assoziiert sind ist fast 0. (Hoch signifikant, p < 0.001).

Signifikanz-Test Zwei wichtige Funktionen: summary(), anova() reg = lm(y ~ x) summary(reg) anova(reg)

summary(reg) 2 * (1 - pt(tstat, n-2)) oder 1 - pf(fstat, 1, n-2) zB min(residuals(reg)) sqrt(deviance(reg)/(n-2)) Call: lm(formula = y ~ x) Residuals: Min 1Q Median 3Q Max -713.17 -195.81 -99.32 215.81 602.68 Coefficients: Estimate Std. Error t value Pr(>|t|) (Intercept) 610.68 94.65 6.452 8.03e-08 *** x 670.27 51.87 12.922 < 2e-16 *** Residual standard error: 300 on 43 degrees of freedom Multiple R-Squared: 0.7952, Adjusted R-squared: 0.7905 F-statistic: 167 on 1 and 43 DF, p-value: < 2.2e-16 tstat SSR/SSY oder cor(x,y)^2 fstat Es gibt eine lineare Assoziation zwischen x und y, R2 = 0.80, F[1, 43] = 167, p < 0.001.

Auflistung von SSR, SSE, MSR, MSE anova(reg) MSR = SSR/1 MSR = mean-sum-of-squares due to regression MSE = SSE/(n-2) MSE = deviance(reg)/(n-2) MSE = mean-sum-of squares of the error √MSE = residual standard error (vorige Seite) fstat = MSR/MSE 2 * (1 - pt(tstat, n-2)) 1 - pf(fstat, 1, n-2) oder Analysis of Variance Table Response: y Df Sum Sq Mean Sq F value Pr(>F) x 1 15031672 15031672 166.97 < 2.2e-16 *** Residuals 43 3871019 90024 SSR SSE

Was sind die Erwartungen bezüglich der Beziehung zwischen F1 im Vokal und SUM1278? Kontaktsummen, Spalten 1+2+7+8 19 y = F1; x = SUM1278 weiter: reguebung.txt