Reliabilität
Arten von Reliabilitäten Paralleltest-Reliabilität Retest-Reliabilität (=Stabilität) Innere Konsistenz
1 Paralleltest-Reliabilität Die Korrelation des Tests mit einem Paralleltest r(X, X`), wobei X....Test 1 X`...zu Test 1 äquivalenter Test 2
2 Retest-Reliabilität (=Stabilität) Eine Wiederholung des gleichen Tests nach einem bestimmten Zeitraum (z.B: 4 Wochen) und eine anschließende Korrelation r(X, X`) liefert Information zur Stabilität des Tests und der gemessenen Eigenschaft (Dimension). X....Test X zum Zeitpunkt 1 X`...Test X zum Zeitpunkt 2 „Stabilitätsgebung“ eines Messinstruments
3 Innere Konsistenz Die Homogenität (Gleichheit) der einzelnen Items wird überprüft. Alle Items sollten korrelieren und eine gemeinsame Dimension messen. Um die Homogenität der Items zu überprüfen, gibt es eine Reihe an Verfahren und Prüfgrößen:
Methoden in SPSS Cronbach alpha Split-Half-Methode (Guttman) (Parallel) (Strikt parallel)
Ad 1: Cronbach alpha untere Schranke der Reliabilität Die wahre Reliabilität ist größer oder gleich dem Alpha-Wert. Anmerkung: Bei dichotomen Items wird in SPSS automatisch die Kuder-Richardson-Formel benützt.
Ad 2: Split-Half-Methode Der Test wird aufgrund eines „splitting points“ in 2 Teile geteilt (z.B: hoher/niedriger Rohscore) und korreliert. Diese Methode teilt den Test intern in 2 Paralleltests und ermittelt die Ähnlichkeit (Korrelation) der beiden internen Teststeile.
5 Strikt parallel-Methode 3 Guttman-Methode Korrektur des Cronbach-Alpha-Wertes 4 Parallel-Methode wenn die Items dieselbe Varianz besitzen 5 Strikt parallel-Methode wenn die Items gleiche Varianz und gleichen Mittelwert besitzen
Methoden der modernen (pobabilistischen) Testtheorie Rasch Modell Linear Logistisches Testmodell (LLTM) Latent Class Analyse (LCA)