Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Regression und Korrelation 5 5.1 Regression 5.2 Korrelation 5.3 Statistische Tests 5.4 Zusammenhangmaße für nicht-metrische Variablen.

Kopien: 1
Regression und Korrelation Regression 5.2 Korrelation 5.3 Statistische Tests 5.4 Zusammenhangmaße für nicht-metrische Variablen 5.5 Nichtlineare.

Ähnliche Präsentationen


Präsentation zum Thema: "Regression und Korrelation 5 5.1 Regression 5.2 Korrelation 5.3 Statistische Tests 5.4 Zusammenhangmaße für nicht-metrische Variablen."—  Präsentation transkript:

1 Regression und Korrelation Regression 5.2 Korrelation 5.3 Statistische Tests 5.4 Zusammenhangmaße für nicht-metrische Variablen

2 Regression und Korrelation 5 Regressions- und Korrelationsanalyse ermittelt den statistischen Zusammenhang zwischen zwei (bivariat) oder mehreren (multivariat) ZVAs: - statistische Zusammenhangtests können nur entscheiden, ob ein signifikanter Zusammenhang besteht - Frage nach Art und Stärke des Zusammenhangs mit Regressions- bzw. Korrelationsanalyse zu beantworten Verfahren der Regressions- und Korrelationsanalyse sowohl auf GG als auch auf STP anzuwenden je nach Skalenniveau der Variablen unterschiedliche Verfahren zu wählen: - klassische Regression und Korrelation setzt metrische Variablen voraus - Korrelationsmaße für ordinal- und nominalskalierte Variablen ebenfalls gebräuchlich - Regression für nicht metrische Variablen eher selten (s. Statistik II)

3 Regression und Korrelation 5 Typen von Zusammenhängen: Y X YX Y X2X2 X1X1 X3X3 Y X2X2 X1X1 X3X3 X0X0 Y X Z Y : Verdunstung X 0 : Globalstrahlung X 1 : Temperatur (=X) X 2 : Luftfeuchte X 3 : Turbulenz einfach einseitig einfach wechselseitig mehrfach einseitig komplex einseitig (nichtlinear) Scheinkorrelation

4 Regression und Korrelation 5 Veranschaulichung der Kovariabilität: proportionaler (positiver) Zusammenhang Bezugseinheit (Zeitpunkt, Region, Proband, …) umgekehrt proportionaler (negativer) Zusammenhang Bezugseinheit (Zeitpunkt, Region, Proband, …) kein Zusammenhang Bezugseinheit (Zeitpunkt, Region, Proband, …) instationärer Zusammenhang Bezugseinheit (Zeitpunkt, Region, Proband, …) Verdunstung Globalstrahlung Verdunstung Bewölkung Verdunstung Ozongehalt Verdunstung Niederschlag bis Bewässerung je mehr desto mehr je mehr desto weniger

5 Regression und Korrelation 5 Ermittlung der Kovariabilität: Bezugseinheit (Zeitpunkt, Region, Proband, …) Verdunstung Globalstrahlung X : Verdunstung Y : Temperatur Kovarianz:

6 Regression 5.1 Regressionsanalyse ermittelt die Art des Zusammenhangs zwischen Variablen: - Abhängigkeit einer Variablen Y von einer (einfach) oder mehreren (multiple) Variablen X bzw. X 1, X 2, …, X n : Regression (Rückschluss) - unabhängige Ausgangsvariable: Prädiktor, Regressor - abhängige Zielvariable: Prädiktand, Regressand - inhaltlich festgelegt: z.B. Globalstrahlung Verdunstung elementarster Fall ist lineare Einfachregression: - gesucht ist Funktion f, die linearen Zusammenhang zwischen Y und X beschreibt: - diese Funktion f ist eine Geradengleichung der Form: - diese Regressionsgerade spiegelt die Orientierung der zweidimensionalen Punktwolke der Werte von X und Y am besten wider Regression von Y nach X b : Steigung (Regressionskoeffizient) a : y-Achsenabschnitt (Regressionskonstante)

7 Regression 5.1 typische Fragestellung: - X : Temperatur - Y : Verdunstung Streuungsdiagramm (Punktwolke): - x-Achse: unabhängige Variable - y-Achse: abhängige Variable ?

8 Regression 5.1 Regressionsgerade hat zwei zentrale Eigenschaften: - exakte Lage hängt allein von der Verteilung der Punkte (x i,y i ) im Streuungs- diagramm ab - optimale Repräsentanz der Punktwolke: alle Punkte sollen möglichst nah an der Geraden liegen, d.h. eine minimale mittlere Distanz haben - aus rechentechnischen Gründen werden vertikale Entfernungen betrachtet: Residuen

9 Regression 5.1 Gaußsches Prinzip der kleinsten Quadrate: - aus mathematischen Gründen nicht absolute sondern quadratische Residuen bei der Minimierung berücksichtigt (least square fit): - E ist eine Funktion der Parameter a und b, deren Minima durch die Nullstellen der partiellen Ableitungen nach a und b gekennzeichnet sind: { Normalgleichungen I und II: 2 Gleichungen für 2 Unbekannte a und b

10 Regression 5.1 Berechnung des Regressionskoeffizienten b: - Normalgleichung (I) mit x i sowie Normalgleichung (II) mit n multiplizieren: - Subtraktion (I) minus (II) liefert:

11 Regression 5.1 Berechnung der Regressionskonstante a: - Normalgleichung (I) mit x i 2 sowie Normalgleichung (II) mit x i multiplizieren: - Subtraktion (I) minus (II) liefert:

12 Regression 5.1 Beispiel zur manuellen Berechnung der Parameter a und b: - generell empfiehlt sich Berechnung mit Tisch-/Taschenrechner - Bestimmung der folgenden Formelterme über tabellarisches Schema: - Einsetzen der Terme in obige Formeln liefert die Geradengleichung:

13 Regression 5.1 Interpretation der Regressionsgleichung: - zugrunde liegendes Modell ist nicht - sondern - Regressionsgleichung kann nur die Information auf Y abbilden, die in X enthalten ist - die Residuen ε kennzeichnen die zufälligen (nicht systematischen) Abweichungen der tatsächlichen y-Werte von der Regressionsgeraden - diese Zufallsfehler können auf andere, nicht berücksichtigte Prädiktoren zurückzuführen sein (multiple Regression) oder letztendlich stochastisch sein - die Residuen ε sind eine Funktion der Zeit und durch die Regressionsanalyse normiert: - die Regressionsgerade läuft immer durch das arithmetische Mittelzentrum - ferner stellen a und b nur STP-Schätzer für die entsprechenden Para- meter der GG dar: Konfidenzintervall und Signifikanzniveau zu bestimmen Anpassung auf den Mittelwert

14 Regression 5.1 Interpretation der Regressionsgleichung: - Regressionskoeffizient gibt an, um wie viele Einheiten sich Y ändert, wenn X sich um eine Einheit ändert: 0,15 mm pro 1,0 °C - bei positivem b ist Beziehung proportional, bei negativem b umgekehrt proportional - über die Regressionsgleichung lassen sich nun für beliebige (auch nicht auftretende) x-Werte die geschätzten y-Werte berechnen: - somit lassen sich auch Datenlücken in Y schließen und Prognosen für Y berechnen: beliebige Bezugseinheit Y X Zeit Y X Datenlücke von Y Prognosezeitraum von Y

15 Regression 5.1 Bestimmung von Zeitreihentrends: - im Falle des Trends ist die Zeit immer die unabhängige Variable X - bei annähernd linearen Entwicklungen lässt sich eine Zukunftsprognose anhand der Regressionsgleichung (statistisches Modell) durchführen - Beispiel: gegeben sind Zeitreihen der Natalität und Verstädterung in der ehem. Sowjetunion: ! ? kleines Residuum: sichere Prognose großes Residuum: unsichere Prognose

16 Korrelation 5.2 Korrelationsanalyse ermittelt die Stärke des Zusammenhangs zwischen Variablen: - keine Unterscheidung zwischen abhängigen und unabhängigen Variablen - hier nur lineare Einfachkorrelation im bivariaten Fall Berechnung des Bestimmtheitsmaßes: - im Fall einer perfekten deterministischen Beziehung liegen alle Wertepaare (x i,y i ) von X und Y exakt auf einer Geraden: - dann gilt für die STP-Varianz der y i : - d.h. die Varianz der y i wird ausschließlich bestimmt durch die Varianz der x i

17 Korrelation 5.2 Berechnung des Bestimmtheitsmaßes: - im nicht-deterministischen Fall existiert ein Residuum ε: - dann gilt für die Varianz der y i : - S kennzeichnet zusätzlichen Varianzanteil des Residuums, so dass Varianz der y i aus 2 Anteilen besteht: Resultat des Einflusses der x i und nicht erfasster (stochastischer) Anteil der ε i - es gilt S = 0 nur im Fall, dass alle ε i = 0 (deterministischer Zusammenhang)

18 Korrelation 5.2 Berechnung des Bestimmtheitsmaßes: - Verhältnis des durch x i erklärten Varianzanteils von y i durch die Gesamt- varianz der y i ist Maß für die Stärke des Zusammenhangs zwischen X und Y: Bestimmtheitsmaß B: - B kennzeichnet die durch X erklärte Varianz von Y - es gilt 0 B 1 - im Falle B = 1 liegt ein streng determi- nistischer Zusammenhang vor, d.h. alle Wertepaare (x i,y i ) liegen exakt auf der Regressionsgeraden

19 Korrelation 5.2 Berechnung des Korrelationskoeffizienten ist aber gebräuchlicher: - sog. Produktmoment-Korrelationskoeffizienten r xy (nach Pearson) - gibt auch Proportionalität des Zusammenhangs an: positiv, negativ - allgemeine Definition: - mit einigen Umformungen von B - ergibt sich sich für den Korrelationskoeffizienten:

20 Korrelation 5.2 Eigenschaften des Korrelationskoeffizienten: - r xy kennzeichnet die mit den Einzelstandardabweichungen normierte Kovarianz von X und Y - es gilt r xy = r yx - r xy hat immer das gleiche Vorzeichen wie b: - Wertebereich und Deutung: - Beispiel Temperatur und Verdunstung: positiv : proportional (je mehr desto mehr) negativ: umgekehrt proportional (je mehr desto weniger) sehr starker Zusammenhang starker Zusammenhang mittelstarker Zusammenhang schwacher Zusammenhang kein Zusammenhang 70,2 % der Verdunstungs- schwankungen können durch die Temperaturvariabilität erklärt werden (sehr starker Zusammenhang)

21 Statistische Tests 5.3 Bestimmung der Koeffizienten der Regressions- und Korrelationsanalyse basiert i.d.R. auf STP-Werten x i und y i : - unterschiedliche STP-Werte führen zu unterschiedlichen Koeffizienten: - r xy und b sind Schätzer für die entsprechenden Koeffizienten ρ bzw. β der bivariaten GG (X,Y) Frage nach Konfidenzintervallen von ρ und β Frage nach Hypothesentest: H 0 : ρ = 0 H 1 : ρ 0 H 0 : β = 0 H 1 : β 0

22 Statistische Tests 5.3 statistische Tests für den Korrelationskoeffizienten: - vorausgesetzt ist, dass X und Y bivariat normalverteilt sind mit den Parametern μ x, μ y, σ x, σ y, ρ xy : - im Fall ρ = 0: kreisrunde Form - im Fall ρ 0: elliptische Form - Randverteilungen der bivariat normalverteilten GG sind univariate Normal- verteilungen - es gilt ferner, dass für beliebige x 0 X und y 0 Y die bedingten Wahrschein- lichkeiten P(Y|X=x 0 ) und P(X|Y=y 0 ) univariate Normalverteilungen sind

23 Statistische Tests 5.3 statistische Tests für den Korrelationskoeffizienten: - im Fall der bivariaten Normalverteilung ist ρ ein Maß für die Stärke des allgemei- nen Zusammenhangs zwischen X und Y - im Fall einer anderen bivariaten Vertei- lung misst ρ nur den linearen Zusammen- hang zwischen X und Y - Bild oben rechts zeigt keine Korrelation trotz starken Zusammenhangs, nur weil GG nicht bivariat normalverteilt sind - in der Praxis im Einzelfall zu prüfen, ob GG bivariat normalverteilt ist - meist aber STP zu klein für sichere Überprüfung - stattdessen werden nur die beiden Randverteilungen auf NV überprüft - in meisten Fällen ist dann GG bivariat normalverteilt (Ausnahmen selten) - statistische Tests jedoch relativ ro- bust gegenüber Verletzungen dieser Voraussetzung

24 Statistische Tests 5.3 statistische Tests für den Korrelationskoeffizienten: - nun zu überprüfen, ob Schätzwert r xy der STP {(x i,y i ), i=1..n} für eine der beiden Hypothesen spricht: - unter H 0 ist die folgende Testvariable t-verteilt mit Φ = n – 2 Freiheitsgraden: - im konkreten Fall ist dann die Prüfgröße mit dem kritischen Wert der t- Verteilung zu vergleichen (α, zweiseitig): - Beispiel Temperatur und Verdunstung: signifikanter Zusammenhang zwischen Temperatur und Verdunstung H 0 : ρ = 0 H 1 : ρ 0

25 Statistische Tests 5.3 Problem der ökologischen Verfälschung: - zeitliche, räumliche oder inhaltliche Aggregation der Daten bewirkt immer Erhöhung des Korrelationskoeffizienten (pos./neg.) - praktisch durch Aggregation jeder Zusammenhang zu erzeugen: Maß der Aggregation als ZVA zu interpretieren - nur durch statistischen Test und angepasste Anzahl der Freiheitsgrade richtig einzuschätzen Bezugseinheit (Zeitpunkt, Region, Proband, …) Verdunstung Globalstrahlung X : Verdunstung Y : Temperatur r xy =0,73 r xy =0,87

26 Statistische Tests 5.3 statistische Tests für die Regressionsanalyse: - andere Voraussetzungen als bei Korrelationsanalyse (unterschiedliche gedankliche Konzepte) - lineare Einfachregression soll beste Schätzung von Y bewerkstelligen unter folgenden Vorausetzungen: 1) ZVA Y|x ist für jeden Wert x normalverteilt mit Mittelwert μ y|x und Standardabweichung σ y|x 2) die Mittelwerte μ y|x liegen auf der Geraden: μ y|x = βX + α (stellt sicher, dass der Zusammen- hang linear ist) nicht linear: widerspricht Forderung 2)

27 Statistische Tests 5.3 statistische Tests für die Regressionsanalyse: 3) Homogenität der Zufallsfehlervarianzen σ 2 y|x 4) die Residualvariablen ε|x = y|x – μ y|x sind jeweils paarweise stochastisch unabhängig: ρ = 0 nicht homogen: widerspricht Forderung 3) ε i sind strukturiert: widerspricht Forderung 4) lineare Einfachregression ist kein angemessenes Modell, obwohl Bestimmtheitsmaß und Korrelationskoeffizient sehr hoch sind

28 Statistische Tests 5.3 statistische Tests für die Regressionsanalyse: - in der Praxis sind diese Voraussetzungen kaum zu prüfen, da bei STP zu jedem x i jeweils nur ein y i gegeben ist - zumindest Streudiagramm zeichnen, um Forderungen 2) bis 4) visuell abzuschätzen Test für lineare Regressionsgleichung ergibt sich aus der Forderung, dass die Residuen ε i annähernd bivariat normalverteilt um 0 sind mit ρ = 0 zusammenfassend: die Residualvariablen ε|x müssen: - den Mittelwert μ ε = 0 haben - für alle x homogene Varianz σ 2 ε|x = σ 2 ε haben - bivariat normalverteilt sein - mit dem Korrelationskoeffizienten ρ ε = 0

29 Statistische Tests 5.3 Test für den Regressionskoeffizienten: - geprüft werden die Hypothesen: - unter der Voraussetzung der H 0 ist die folgende Prüfgröße t-verteilt mit (n-2) Freiheitsgraden: - zu vergleichen mit kriti- schem Wert t α/2;Φ gegeben das Irrtumsniveau α - Beispiel Temperatur und Verdunstung (α=5%): es existiert ein linearer Zusammenhang H 0 : β = 0 H 1 : β 0

30 Statistische Tests 5.3 Konfidenzintervall für den Regressionskoeffizienten: - β liegt mit einer Irrtumswahrscheinlichkeit α im Konfidenzintervall: - Beispiel Temperatur und Verdunstung: - graphisch lässt sich das Konfidenzinter- vall über die beiden Grenzgeraden ver- anschaulichen: - die Grenzgeraden haben immer das arithmetische Mittelzentrum als Dreh- punkt

31 Statistische Tests 5.3 Konfidenzintervall für die Schätzwerte : - ist Schätzwert für das arithmetische Mittel aller zu einem x-Wert gehörenden Werte y|x der ZVA Y|x - Grundlage für die Berechnung des Konfidenzintervalls ist die folgende Schätzfunktion, die t-verteilt ist mit (n-2) Freiheitsgraden: - hängt von der Distanz zum Mittelwert ab: Standardfehler wächst mit zunehmender Distanz vom arithmetisches Mittelzentrum

32 Statistische Tests 5.3 Konfidenzintervall für die Schätzwerte : - dann lautet das Konfidenzintervall für den Erwartungswert der ZVA Y|x: - je näher am Mittelwert von X desto genauer die Schätzung von Y - Beispiel Temperatur und Verdunstung: - graphisch zu veranschaulichen durch Vertrauensband: Langfristprognosen werden immer unsicherer

33 Zusammenhangmaße für nicht-metrische Variablen 5.4 Regressions- und Korrelationsanalyse erfordern metrische Variablen: - für ordinal- und nominalskalierte Variablen existieren ebenfalls Zusammen- hangmaße (Korrelationskoeffizienten) - auch für metrische Variablen, die nicht bivariat normalverteilt sind oder einen nichtlinearen (aber monotonen) Zusammenhang haben Rang-Korrelationskoeffizient ρ s nach Spearman: - gegeben ist STP einer bivariaten GG (X,Y) mit zumindest ordinalskalierten ZVA X und Y - STP-Werte x i und y i sind der Größe nach geordnet mit den Rangplätzen: - dann wird der Rang-Korrelationskoeffizient geschätzt durch: große Rangpaardifferenzen durch die Quadrierung relativ stark gewichtet bei Gefahr von Ausreißern besser Rang-Korrelationskoeffizient τ von Kendall

34 Zusammenhangmaße für nicht-metrische Variablen 5.4 Rang-Korrelationskoeffizient ρ s nach Spearman : - r s entspricht bei singulären Daten genau dem Produktmoment- Korrelationskoeffizient r xy nach Pearson wegen: - r s gibt Richtung und Stärke des monotonen Zusammenhangs an (gegensinnig, gleichsinnig): - Interpretation: - für Signifikanztest ist die folgende Prüfgröße unter H 0 : ρ s = 0 standardnormal- verteilt, wenn n 30 (ansonsten Werte aus Tabelle für R s ): ρ s = -1Variablen exakt gegensinnig ρ s < 0Variablen negativ korreliert (mehr oder weniger gegensinnig) ρ s = 0Variablen ohne monotonen Zusammenhang ρ s > 0Variablen positiv korrelíert (mehr oder weniger gleichsinnig) ρ s = +1Variablen exakt gleichsinnig

35 Zusammenhangmaße für nicht-metrische Variablen 5.4 Rang-Korrelationskoeffizient ρ s nach Spearman : - Beispiel: gegeben 7 Rangpaare - bei Rangplätzen mit Bindungen ρ s nach folgender Formel geschätzt: iRang x i Rang y i k : Anzahl der Bindungen bei X l : Anzahl der Bindungen bei Y t xj : Anzahl der STP-Elemente mit gleichem Rang x j t yj _ Anzahl der STP-Elemente mit gleichem Rang y j

36 Zusammenhangmaße für nicht-metrische Variablen 5.4 Rang-Korrelationskoeffizient ρ s nach Spearman : - Beispiel: Verstädterung und Natalität in Russland (eigentlich metrisch) - es besteht ein signifikanter monotoner Zusammenhang zwischen Natalität und Verstädterung (gegensinnig) Rangreihen mit Bindungen: X : 6-mal (10,5; 13,5; 16,5; 22,5; 25,5; 4,0) Y : 1-mal (14,5)

37 Zusammenhangmaße für nicht-metrische Variablen 5.4 Rang-Korrelationskoeffizient auch bei metrischen Variablen geeignet, die einen monotonen, aber keinen linearen Zusammenhang besitzen: - häufiger Fall in der Praxis wie z.B. Entwicklungsstand und medizinische Versorgung (metrisch) (s.u.) - Produktmoment-Korrelationskoeffizient liefert -0,41 und Signifikanzniveau 1 % - aber Voraussetzungen für Signifikanztest (bivariat normalverteilt) nicht erfüllt - ρ xy = -0,41 vermittelt auch falschen Eindruck der Stärke des Zusammenhangs - denn ρ s liefert -0,85 und erfasst somit den deutlichen Zusammenhang im Streudiagramm, den der lineare Ansatz von ρ xy nicht erfasst - nach linearer Transformation (doppelt logarithmisch) liefert auch ρ uv = -0,85 Originalachsen doppelt logarithmiert

38 Zusammenhangmaße für nicht-metrische Variablen 5.4 Kontingenzkoeffizient C nach Pearson: - gegeben 2 nominal-skalierte ZVA X und Y mit k bzw. l verschiedenen Ausprägungen in Kontingenztafel: - Unabhängigkeit der beiden ZVA lässt sich über χ 2 -verteilte Prüf- größe für mehrfach gestufte Merk- male testen: - Prüfgröße χ 2 ist direkt proportional zu n:

39 Zusammenhangmaße für nicht-metrische Variablen 5.4 Kontingenzkoeffizient C nach Pearson: - ein mit n normiertes Zusammenhangmaß ermöglicht Vergleich von diversen Kontingenztafeln mit unterschiedlichem n: - es gilt C* {0..1} mit möglichem Maximalwert bei: - damit ergibt sich der Kontingenzkoeffizient C zu: - C ist ebenfalls auf {0..1} normiert und gibt die Stärke des Zusammenhangs zwischen X und Y an, allerdings nicht die Richtung: aus Residualkomponente schließen: - die Nullhypothese H 0 : C = 0 wird mit der χ 2 -verteilten Prüfgröße (s.o.) mit Φ = (k-1)(l-1) Freiheitsgraden getestet

40 Zusammenhangmaße für nicht-metrische Variablen 5.4 Kontingenzkoeffizient C nach Pearson: - Beispiel Wahlverhalten in BRD: CDU-Anteil und ländlicher Raum: - unter der Nullhypothese (kein Zusammenhang) ergeben sich die erwarteten Häufigkeiten zu: - Prüfgröße: - kritischer Wert (zweiseitig, α = 5%): - CDU-Wähleranteil ist Funktion der Bevölkerungsdichte n = 94 Kreise k = 4 Anteil-Kategorien l = 3 Bevölkerungsdichte- kategorien

41 Zusammenhangmaße für nicht-metrische Variablen 5.4 Kontingenzkoeffizient C nach Pearson: - Stärke des Zusammenhangs gemessen durch Kontingenzkoeffizient C: - Richtung des Zusammenhangs wird deutlich, wenn die Residualkomponenten in Kontingenztafel eingetragen werden: - in ländlichen Regionen ist der Anteil der CDU-Wähler signifikant höher als in Verdichtungsräumen

42 Zusammenhangmaße für nicht-metrische Variablen 5.4 Vierfelder-Korrelationskoeffizient ρ Φ : - Sonderfall der Kontingenztafel mit k = l = 2: dichotome Variablen X und Y - Vierfelder-Korrelationskoeffizient ergibt sich zu: - es gilt ρ Φ {-1..1}: - für den Signifikanztest ist die folgende Prüf- größe χ 2 -verteilt mit Φ = 1 Freiheitsgrad: ρ Φ = -1maximaler negativer Zusammenhang ρ Φ = 0kein Zusammenhang ρ Φ = +1maximaler positiver Zusammehang

43 Zusammenhangmaße für nicht-metrische Variablen 5.4 Vierfelder-Korrelationskoeffizient ρ Φ : - Beispiel: Zusammenhang zwischen Erwerbsstruktur und Mechanisierungsgrad - Vierfelder-Korrelationskoeffizient: - Prüfgröße und kritischer Wert (zweiseitig, α = 5%): - es existiert ein signifikanter positiver Zusammenhang zwischen Erwerbs- struktur und Mechanisierungsgrad Y=1 : hoher Mechanisierungsgrad Y=0 : geringer Mechanisierungsgrad X=1 : Vollerwerbsbetrieb X=0 : Nebenerwerbsbetrieb

44 Take-away Die Regressions- und Korrelationsanalyse ermitteln die Art bzw. die Stärke des Zusammenhangs zwischen (metrischen) Zufallsvariablen Häufig kommt die lineare Einfachregression zum Einsatz, bei der die Regressionsgleichung eine Gerade beschreibt. Die Regressionsgleichung eignet sich auch zur Erfassung von Zeitreihentrends und zur Prognose von zukünftigen Entwicklungen. Der Produktmoment-Korrelationskoeffizient ist ein normiertes Zusam- menhangmaß, dass die wechselseitig erklärte Varianz zwischen 2 metrischen Variablen kennzeichnet. Für ordinalskalierte Variablen fungiert der Rang-Korrelationskoeffizient, für nominalskalierte Variablen der Kontigenzkoeffizient bzw. der Vierfelder- Korrelationskoeffizient als Zusammenhangmaß. Basieren Regressionsgleichung und Korrelationskoeffizient auf STP- Werten, existieren Signifikanztests und Mutungsbereiche zur Schätzung der entsprechenden Koeffizienten der GG. 5


Herunterladen ppt "Regression und Korrelation 5 5.1 Regression 5.2 Korrelation 5.3 Statistische Tests 5.4 Zusammenhangmaße für nicht-metrische Variablen."

Ähnliche Präsentationen


Google-Anzeigen