Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Folie 1 Theorie und Konstruktion psychologischer Tests.

Ähnliche Präsentationen


Präsentation zum Thema: "Folie 1 Theorie und Konstruktion psychologischer Tests."—  Präsentation transkript:

1 Folie 1 Theorie und Konstruktion psychologischer Tests

2 Folie 2 Literatur Hans Irtel Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik Frankfurt am Main: Verlag Peter Lang, 1996 (ISBN ) im Web als PDF

3 Folie 3 Gliederung Wahrscheinlichkeitstheorie Klassische Testtheorie Logistische Testmodelle Entscheidungstheorie

4 Folie 4 Warum brauchen wir die Wahrscheinlichkeitstheorie? Psychologische Daten unterliegen vielen Einflußgrößen, viele davon sind nicht kontrollierbar. Eine Wiederholung einer Erhebung liefert nicht mit Sicherheit das gleiche Ergebnis. Bei einem guten Test reproduzibel: Statistische Daten (Mittelwerte, Streuungen)

5 Folie 5 Wahrscheinlichkeitstheorie I Mengenlehre Was ist Zufall? Der Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeiten

6 Folie 6 Warum brauchen wir die Mengenlehre? Wahrscheinlichkeitsberechnungen beruhen auf dem Vergleich der Mächtigkeit von Mengen.

7 Folie 7 Mengenlehre I Naive Mengenlehre (Cantor) –Eine Menge ist eine Zusammenfassung von von bestimmten wohl unterschiedenen Objekten (Elementen) –Schreibweisen: M = {a,b,c...}, M={x N|x>7}, –Teilmenge: A B (x A x B), B A –Vereinigungsmenge:A B = {x|x A x B} –Schnittmenge: A B = {x|x A x B} –Komplement, Differenz:A = \ A {x|x x A} –Kommutativität, Assoziativität, Distributivität –De Morgan: A B = A B, A B = A B –A sei eine Menge. Potenzmenge: Menge aller Teilmengen X={x|x A} –Menge aller Mengen –Menge aller Mengen die sich nicht selbst enthalten (Russell) –Russell: Typentheorie. Zermelo-Fraenkel-Mengenlehre. Gödel.

8 Folie 8 Mengenlehre II kartesisches Produkt: A B = {(a,b)|a A b B} A B C, A A A = A 3 binäre Relation: R A B. Statt (a,b) R schreibe aRb. Beispiel: K = {(a,b)|(a,b) N N a

9 Folie 9 Mengenlehre III Zerlegung:Sei A eine Menge, und ~ eine Äquivalenzrelation auf A. Dann heißt die Menge A/~ aller Äquivalenzklassen von A bzgl. ~ die von ~ induzierte Zerlegung. –K,L A/~ K L K L= –Vereinigungsmenge aller Elemente von A/~ –Definition von ~ über eine Zerlegung –Zerlegung eines Hypothesenraums für die Hypothesenprüfung nach Bayes

10 Folie 10 Mengelehre IV Eine binäre Relation f auf A B heißt eine Abbildung, wenn gilt –f ist linkstotal: a A b B sodaß (a,b) f. –f ist rechtseindeutig: (a,b) f (a,c) f b=c –A: Definitionsbereich, B: Wertebereich von f. –alternativer Name: Funktion. –Schreibweisen: (a,b) f, afb, b=f(a), f: A B, –M A, N B : f(M)=N heißt Bild von M, f –1 (N)=M Urbild von N –surjektiv: b B a A sodaß (a,b) f. rechtstotal. bitotal. –injektiv:(a,c) f (b,c) f a=b. linkseindeutig. eineindeutig. –bijektiv:surjektiv und injektiv. –Sei f bijektiv. Dann ist auch die Umkehrabbildung f –1 bijektiv. –endlich, unendlich; abzählbar, überabzählbar

11 Folie 11 Mengenlehre und Logik Verwandtschaft von Mengenlehre und Logik – A –Hausaufgaben (unter anderem): überprüfen, welche Gesetze der Mengelehre genauso in der Logik gelten. vertraut machen mit Wahrheitstafeln!,,,,

12 Folie 12 Zufallsexperimente Ergebnis nicht mit Sicherheit vorhersagbar, Menge aller möglichen Ergebnisse bekannt. Ergebnisraum = { 1, 2, 3,...} –Beispiel: Detektionsexperiment Ergebnisraum: = {+, } –Beispiel: Stellung von Ehepaaren zu Geschwindigkeitsbegrenzung auf Autobahnen Ergebnisraum: = {0,1,2} (Zahl der Ja-Antworten) Ergebnisraum: = {(J,J),(J,N),(N,J),(N,N)} –Ergebnisraum hängt von der Struktur des Experimentes und von der Fragestellung ab

13 Folie 13 Ereignisse Teilmenge A des Ergebnisraums ist ein Ereignis. –Ergebnis i (direkt) beobachtbar: Ausgang des Experiments –Ereignis = wahrscheinlichkeitstheoretisches Konzept: Ereignis tritt ein / wird (indirekt) beobachtet = Ergebnis Ereignis –Beispiel: E = Ehepaar antwortet gleich = {0,1,2}: E = {0,2} = {(J,J),(J,N),(N,J),(N,N)}: E = {(J,J),(N,N)} –Elementarereignis: Ereignis mit nur einem Element, { i } –Ergebnisraum und leere Menge sind Ereignisse –Operationen auf Ereignissen: Vereinigung, Schnittmenge, Komplement

14 Folie 14 Wahrscheinlichkeiten von Ereignissen für endliche oder abzählbare (diskrete) Ergebnisräume: Wahrscheinlichkeit: P: Potenzmenge( ) R so daß –P({ i }) 0, –P({ 1 }) + P({ 2 }) + P({ 3 }) = 1. –P(A) = A P({ }) –keine weitere Annahmen über P({ i }), insbesondere nicht gleichwahrscheinlich Problem bei überabzählbaren Mengen

15 Folie 15 -Algebra Axiomatische Definition nach Kolmogorov: Sei ein Ergebnisraum, und S eine Menge von Teilmengen von, dann heißt S eine -Algebra in, wenn gilt – S –A S A S –A 1, A 2, A 3... S A 1 A 2 A 3... S S ist abgeschlossen bzgl. Komplement,, S kann abzählbar sein, auch wenn überabzählbar ist.

16 Folie 16 Wahrscheinlichkeitsraum Sei ein Ergebnisraum und S eine -Algebra in. Dann ist die Abbildung P: S R eine Wahrscheinlichkeit, wenn gilt: –P(A) 0 für alle A S, –P( ) = 1, – -Additivität: A 1, A 2, A 3... S, paarweise disjunkt P(A 1 A 2 A 3...) = P(A 1 ) + P(A 2 ) + P(A 3 ) +... Übungen:, P(A), A B

17 Folie 17 Bedingte Wahrscheinlichkeit Seien A und B Ereignisse, mit P(B)>0. Dann wird die bedingte Wahrscheinlichkeit, daß A eintritt gegeben B, definiert als: P(A|B) P(A B)/P(B) Beispiel: ein Säckchen enthalte weiße und schwarze Spielsteine aus Holz und aus Plastik: 40 weiße aus Holz, 10 weiße aus Plastik, 30 schwarze aus Holz, 20 schwarze aus Plastik. Ich ziehe einen Stein. Wie groß ist P(w|H), p(H|w), p(H), p(w),... P(A B) = P(A|B) P(B) = P(B|A) P(A)

18 Folie 18 Stochastische Unabhängigkeit A und B sind stochastisch unabhängig, wenn gilt: P(A|B) = P(A) Fragen: P(B|A) = ? P(A B) = ? P(A|B) = ? Beispiel: A tritt nach B ein. A ist unabhängig von B, wenn das erste Teilergebnis (aus B oder aus B) keinen Einfluß auf die Wahrscheinlichkeit für das Auftreten von A hat. Zwei Ereignisse seien disjunkt. Beide haben eine Wahrscheinlichkeit größer Null. Können sie unabhängig sein?

19 Folie 19 Unabhängige Familien Sei C eine Menge von Ereignissen. C heißt Familie unabhängiger Ereignisse, wenn für alle endlichen Teilmengen von C gilt: P(A 1 A 2 A 3...) = P(A 1 ) P(A 2 ) P(A 3 )... Reicht paarweise Unabhängigkeit aller Elemente für die Unabhängigkeit der Familie?

20 Folie 20 Bayes Sei {B 1, B 2,...} eine Zerlegung von. (paarweise disjunkt, Vereinigung aller B i = ). Dann gilt: Beispiel: B i (unbeobachtbare) Hypothesen, A (beobachtbare) Versuchsergebnisse, P(A|B i ) bekannt (Voraussagen), P(B i ) a priori Wahrscheinlichkeiten für Hypothesen, P(B i |A) a posteriori Wahrscheinlichkeiten der Hypothesen.

21 Folie 21 Beispiel: Entscheidungstheorie Jeder Stimulus löst eine interne Repräsentation aus, die sich durch einen eindimensionalen Parameter e beschreiben läßt. e ist Gauß-verteilt, mit = 1 und µ = 0 (Rauschen) bzw. µ = d (Signal). Bei Ja/Nein-Aufgaben setzt die VP ein Kriterium k und sagt Ja wenn e > k. JaNein d 0 02ek P (S | e) ist eine monotone Funktion von e: Ein Kriterium in e ist gleichzeitig ein Kriterium in P (S | e).

22 Folie 22 Bedingte Unabhängigkeit Sei ein Ergebnisraum, S eine -Algebra in, P eine Wahrscheinlichkeit auf S, und C ein Ereignis. Dann ist auch P C : S R mit P C (A) = P(A|C) eine Wahrscheinlichkeit auf S. Zwei Ereignisse A und B heißen bedingt unabhängig bezüglich C, wenn sie bezüglich P C unabhängig sind: P C (A|B) = P C (A). P C (A B) = P C (A) P C (B) P(A B|C) = P(A|C) P(B|C)

23 Folie 23 Zufallsvariablen Warum brauchen wir Zufallsvariablen? –Mit Mengen kann man nicht rechnen (+,,...). –Abbildung von auf R bzw. R = R {, } –Abbildung von auf abzählbare Menge bzw. N

24 Folie 24 Reelle Zufallsvariablen Sei ein Ergebnisraum, S eine -Algebra in, P eine Wahrscheinlichkeit auf S. X: (R bzw.) R heißt (reelle) Zufallsvariable genau dann wenn x R: { |X( ) x} S S = {, }, X ? Das Urbild jedes Intervalls (,x] ist ein Ereignis. (S-Meßbarkeit von X). –Dies ermöglicht die Übertragung der Wahrscheinlichkeit P von der -Algebra S auf den Wertebereich von X.

25 Folie 25 Verteilungsfunktion Definition der Verteilungsfunktion F(x) = P({ |X( ) x}) = P(X x) –monoton steigend (warum?) –F( ), F(+ ) Gibt es für die reelle Zufallsvariable X: R eine nichtnegative Funktion f: R R mit F(x) = x f(y) dy, dann ist f die Wahrscheinlichkeitsdichte von X. –P(a x b) = a b f(y) dy – f(y) dy = ???

26 Folie 26 Diskrete Zufallsvariablen Sei ein Ergebnisraum, S eine -Algebra in, P eine Wahrscheinlichkeit auf S. X: E (E abzählbar) heißt diskretes Zufallselement. Zusätzlich E R: X ist diskrete Zufallsvariable. Definition der Wahrscheinlichkeitsfunktion p(x) = P({ |X( )=x}) = P(X=x) B E: P(B) = x B p(x). Zufallsvariable X: Verteilungsfunktion F(x) = P(X x) = y x p(y). A S: Indikatorfunktion 1 A ( ) = 1 wenn A, 0 sonst.

27 Folie 27 Unabhängige Zufallsvariablen Reelle Zufallsvariablen X 1, X 2,... sind stochastisch unabhängig, wenn für alle x 1, x 2,... R gilt: P(X 1 x 1, X 2 x 2,...) = P(X 1 x 1 ) P(X 2 x 2 )... Wenn alle X i Dichten besitzen, gilt F(x 1,x 2,...) = x1 f 1 (y 1 ) dy 1 x2 f 2 (y 2 ) dy 2... = x1 x2... f 1 (y 1 ) f 2 (y 2 ) dy 1 dy 2... Wahrscheinlichkeitsdichte f(x 1,x 2,...) = f 1 (x 1 ) f 2 (x 2 )...

28 Folie 28 Zufallsstichprobe Folge von Zufallsexperimenten in einer Population –Jedes Element der Population hat die gleiche Wahrscheinlichkeit, beobachtet zu werden. –einzelne Beobachtung: Ergebnis und X( ) registrieren. –Die einzelnen Beobachtungen müssen stochastisch unabhängig sein. Folge X i stochastisch unabhängiger und identisch verteilter (P(X i x)=F(x)) Zufallsvariablen.

29 Folie 29 Modus, Median, Quantile Sei X eine reelle Zufallsvariable mit Verteilungsfunktion F(x) und Wahrscheinlichkeitsdichte f(x). –Modus: f(x m ) hat ein (lokales?) Maximum – -Quantil: F(x ) = –Median: 0,5-Quantil Sei X eine diskrete Zufallsvariable mit Wahrscheinlichkeitsfunktion p(x) und Verteilungsfunktion F(x). –Modus: p(x m ) ist maximal – -Quantil: P(X x ) P(X x ) 1–

30 Folie 30 Erwartungswert, Varianz Sei X eine reelle Zufallsvariable mit Wahrscheinlichkeitsdichte f(x). –Erwartungswert: E (X) = x f(x) dx –Varianz: V(X) = ²(X) = E ( (X– E (X))² ) = E (X²) – E (X)² –Standardabweichung (X) (positive Wurzel von V(X)) Sei X eine diskrete Zufallsvariable mit Wahrscheinlichkeitsfunktion p(x). –Erwartungswert: E (X) = x X( ) x p(x) –Varianz und Standardabweichung wie oben

31 Folie 31 Rechenregeln mit E und V Zufallsvariable a sei konstant: E (a) = a. E ist linear: E (aX + bY) = a E (X) + b E (Y) Zufallsvariable a sei konstant: V(a) = 0. V(X+a) = V(X) V(aX) = a²V(X)

32 Folie 32 Vorhersage Seien X und Y zwei Zufallsvariablen. Wie genau erlaubt die Kenntnis von X, den Wert von Y vorherzusagen, und welcher Wert wäre das? Vorhergesagter Wert Y' = F (X) Vereinfachung: Existiert ein linearer Zusammenhang? Y' = a + b X Y' = a + b X + e

33 Folie 33 Linearität Fast jeder Zusammenhang ist –lokal linear –global nichtlinear

34 Folie 34 Das lineare Modell Y' = a + b X Y' = a + b X + e e = Y – Y' E (e) = 0 Ziel: E (e²) minimieren E (Y) = a + b E (X) Achsabschnitt a = E (Y) – b E (X) Steigung b = ??? Y X Y' = a + b X eiei

35 Folie 35 Varianz und Kovarianz V(X) = V XX = E ( (X– E (X))² ) V(Y) = V YY = E ( (Y– E (Y))² ) V(X,Y) = V XY = E ( (X– E (X))(Y– E (Y)) ) V YX = V XY = E (X·Y) – E (X) E (Y) V xy ist positiv, wenn positive Abweichungen in X mit positiven Abweichungen in Y einhergehen, und negative mit negativen. V xy ist negativ, wenn... V xy ist Null, wenn...

36 Folie 36 z-transformierte Zufallsvariablen Y = a + b X + e E (Y) = a + b E (X) Wenn X und Y z-transformiert sind, wenn also gilt: E (X) = E (Y) = 0 und V XX = V YY = 1, dann gilt für die Regressionsgerade: Achsabschnitt a = 0 und Steigung b = V XY = E (X·Y)

37 Folie 37 Vertauschung von X und Y Wenn man bei z-transformierten Zufallsvariablen X und Y vertauscht, bleibt die Steigung der Regressionsgerade gleich... Y X Y' = b X eiei Y X X' = (1/b) Y eiei X' = b Y Koordinaten- ursprung

38 Folie 38 Korrelationskoeffizient und Steigung Steigung b Y·X = V XY / V XX Steigung b X·Y = V XY / V YY 1 / b Y·X = V XX / V XY r XY = V XY / (V XX V YY ) b Y·X = r XY (V YY /V XX ) = r XY S Y /S X b X·Y = r XY (V XX /V YY ) = r XY S X /S Y r XY ² = V XY ² / (V XX V YY ) E (e²) = V YY ( 1 – r XY ² ) = ( 1 – r XY ² ) für z-transformierte Daten

39 Folie 39 Rechenregeln mit Kovarianz V(aX + bY) = a²V XX + b²V YY + 2abV XY V( i=1...n X i ) = i=1...n j=1...n V XiXj V X+Y,Z = V XZ + V YZ Sind X und Y stochastisch unabhängig, dann gilt – E (X·Y) = E (X) E (Y) –V XY = 0 –Z=X+Y: V ZZ = V X + V Y –Z=X–Y: V ZZ =

40 Folie 40 Tschebyschew P(|X– E (X)| ) V XX / ²

41 Folie 41 Zentraler Grenzwertsatz Seien X i, i=1...n, unabhängig verteilte Zufallsvariablen (beliebige Verteilungen). Dann ist die Summe S n = i=1...n X i approximativ normalverteilt, mit Erwartungswert E (S n ) = und Varianz V(S n ) =

42 Folie 42 Mehrdimensionale Zufallselemente Sei ein Wahrscheinlichkeitsraum und X und Y Zufallselemente mit Wertebereichen E X und E Y. Dann ist p: E X E Y R, p(x,y) = P(X=x,Y=y) = P({ |X( )=x Y( )=y}) die gemeinsame Wahrscheinlichkeitsfunktion des Zufallsvektors (X,Y). P(X=x) = y E Y p(x,y) = p(x,*) ist die Randwahrscheinlichkeitsfunktion von X.

43 Folie 43 Mehrdimensionale Zufallsvariablen Sei ein Wahrscheinlichkeitsraum und X und Y Zufallsvariablen. Sie haben eine gemeinsame Wahrscheinlichkeitsdichte f wenn für alle reellen Zahlen x, y gilt: P(X x,Y y) = x y f(u,v) du dv. Dann gilt auch P(X x) = x f(u,*) du mit der Randwahrscheinlichkeit f(u,*) = + f(u,v) dv.

44 Folie 44 Bedingte Wahrscheinlichkeitsfunktionen Sei ein W.-raum, X und Y Zufallselemente mit Wertebereichen E X und E Y, der gemeinsamen W.-funktion p(x,y) und den Randwahrscheinlichkeiten p(x,*) = p(x) und p(*,y) = p(y). Sei A = {(x,y)|x=x'}, B= {(x,y)|y=y'} mit P(A) > 0. Dann gilt P(B|A) = P(Y=y'|X=x') = P(A B)/P(A) = p(y',x')/p(x'). Definition: p(y|x) p(y,x)/p(x) (für p(x) > 0) (bedingte Wahrscheinlichkeit für Y gegeben X=x).

45 Folie 45 Bedingte Wahrscheinlichkeitsfunktionen Sei ein W.-raum, X und Y Zufallsvariablen mit der gemeinsamen W.-dichte f(x,y) und den Randwahrscheinlichkeiten f(x,*) = f(x) und f(*,y) = f(y). Definition: f(y|x) f(y,x)/f(x) (für f(x) > 0) (bedingte W.-dichte für Y gegeben X=x). f(y|x) ist nichtnegativ, + f(y|x) dy = 1, f(y|x) ist eine Wahrscheinlichkeitsdichte. P(Y

46 Folie 46 Bedingte Erwartung: eine Zufallsvariable Sei ein Wahrscheinlichkeitsraum, X: R eine Zufallsvariable, und H: E H ein diskretes Zufallselement. Ist E (X) eine Zufallsvariable? ( R) Ist E (X|H=h) eine Zufallsvariable? ausführlichere Schreibweise: E (X|H( )=h) bedingte Erwartung: T X : R, T X ( ) = t X (H( )), mit t X : E H R, t X (h) = E (X|H=h).

47 Folie 47 Bedingte Erwartung: Rechenregeln bedingte Erwartung: T X : R, T X ( ) = t X (H( )), mit t X : E H R, t X (h) = E (X|H=h). T X+Y = T X + T Y T aX = a · T X allgemein: T X·Y T X · T Y Spezialfall: Y konstant auf Äquivalenzklassen von /~H: T X·Y = Y · T X T Y = Y, T T X = T X, E (T X ) = E (X)

48 Folie 48 Klassische Testtheorie Der Beobachtungswert setzt sich additiv aus dem wahren Meßwert und einem Fehlerwert zusammen. –Der Fehlerwert wird auch als statistischer Fehler bezeichnet. –Der wahre Wert muß nicht valide sein (systematischer Fehler). Die Datenerfassung ist ein Zufallsexperiment in zwei Teilen –Auswahl einer Person aus einer Population, –Erhebung der Daten bei dieser Person.

49 Folie 49 System psychometrischer Daten Sei ein Wahrscheinlichkeitsraum, X k : R eine endliche Folge von Zufallsvariablen mit endlichem Erwartungswert und endlicher Varianz, und H: A ein diskretes Zufallselement. Dann ist ein System psychometrischer Daten. Beispiel: Herzfrequenz. – : {... (P713, 71), (P713, 72), (P713, 73),... (P714, 71),...} –H( ): P713(Personenfilter) –X( ): 72(Datenfilter) HF...P713P

50 Folie 50 Personenparameter Sei ein Syst. psychom. Daten. Der Personenparameter T X k zur Zufallsvariable X k ist die Zufallsvariable T X k : R mit T X k ( ) = E (X | H( ')=H( )) T X k ist auf definiert, ist mit der -Algebra S auf verträglich, aber auch mit S H, der analogen -Algebra auf /H. B S H : E (T X k | B) = E (X k | B). HF...P713P TXTX 72,368,1

51 Folie 51 Fehlerwert Sei ein Syst. psychom. Daten. Der Fehlerwert E X k zur Zufallsvariable X k ist die Zufallsvariable E X k : R mit E X k = X k – T X k. HF...P713P TXTX 72,368,1

52 Folie 52 Klassische Testtheorie: Grundannahmen Sei ein System psychom. Daten. 1.X = T X + E X 2. B S H : E (E X | B) = 0 3. (E X,T X ) = 0 4. (E X,T Y ) = 0 5. ²(X) = ²(T X ) + ²(E X ) folgt aus den Definitionen von Personenparameter und Fehlerwert 6.r(E X,E Y ) = 0 (zusätzliche Annahme) IQ...P713P TYTY 72,368,1 HF...P713P TXTX 72,368,1

53 Folie 53 Reliabilität Rel(X) ²(T X ) / ²(X) ²(X,T X ) = Rel(X) (s. Irtel) 1 = ²(T X ) / ²(X) + ²(E X ) / ²(X) 1 – Rel(X) = ²(E X ) / ²(X) (E X ) = (X) · [1 – Rel(X)]

54 Folie 54 Abschätzung des Meßfehlers In der Meßtheorie ist die Methode der Wahl zur Abschätzung des Meßfehlers die Meßwiederholung. Problem: In der Psychodiagnostik kann das gleiche Meßinstrument in der Regel nicht wiederholt eingesetzt werden. Ansatz: Parallele Messungen, d.h. parallele Testformen, die in den wesentlichen Parametern übereinstimmen. Beispiel: Blutdruckmessung linker/rechter Arm

55 Folie 55 Parallele Messung Beschränkung einer Zufallsvariable X: R auf eine Person: X|H=a: H –1 (a) R –Wie groß ist ²(T X |H=a)? –Wir erinnern uns: ²(X) = ²(T X ) + ²(E X ). Wie groß ist ²(E X |H=a)? X 1 und X 2 heißen lokal unkorreliert, wenn a H( ): (X 1 |H=a,X 2 |H=a) = 0 X 1 und X 2 heißen parallel, wenn lokal unkorreliert und a H( ): E (X 1 |H=a) = E (X 2 |H=a) a H( ): ²(X 1 |H=a) = ²(X 2 |H=a)

56 Folie 56 Parallelität verifizieren X 1 und X 2 heißen parallel, wenn lokal unkorreliert und a H( ): E (X 1 |H=a) = E (X 2 |H=a) a H( ): ²(X 1 |H=a) = ²(X 2 |H=a) Daraus folgt E (X 1 |H=B) = E (X 2 |H=B) B H( ): ²(X 1 |H=B) = ²(X 2 |H=B) Daraus folgt: E (X 1 ) = E (X 2 ) ²(X 1 ) = ²(X 2 ) Der Umkehrschluß ist unzulässig. –In anderen Worten: Parallelität kann man falsifizieren, nicht verifizieren. nicht meßbar meßbar

57 Folie 57 Empirische Bestimmung der Reliabilität X 1 und X 2 heißen lokal unkorreliert, wenn a H( ): (X 1 |H=a,X 2 |H=a) = 0 (E X 1,E X 2 ) = 0 (X 1,X 2 ) = (T X 1,T X 2 ) = ²(T X 1 ) (X 1,X 2 )= (X 1,X 2 )/ ( ²(X 1 )· ²(X 2 )) = ²(T X 1 ) / ²(X 1 ) = Rel(X 1 ) = Rel(X 2 ) Die Reliabilität eines Tests kann anhand von zwei Parallelformen des Tests bestimmt werden.

58 Folie 58 Interkorrelationen Weitere Möglichkeiten, die Parallelität zu überprüfen: –Sind Tests X 1, X 2,... X n parallel, dann sind ihre Interkorrelationen gleich: (X 1,X 2 ) = (X 1,X 3 ) = (X 2,X 2 ) = (X 1,X 4 ) =... –Sind Tests X 1, X 2,... X n parallel, und ist Test Y mit X 1, X 2,... X n lokal unkorreliert, dann sind die Korrelationen mit Y gleich: (X 1,Y) = (X 2,Y) = (X 3,Y) =...

59 Folie 59 Konfidenzintervall für den Personenparameter nach Tschebyschew, P(|Z– E (Z)| ) ²(Z)/ ², keine Annahmen über die Verteilung von Z: 1 – P(|Z– E (Z)|< ) ²(Z)/ ² 1 – ²(Z)/ ² P(|Z– E (Z)|< ) P(|X–T X |< ) = P(|E X – E (E X )|< ) 1 – ²(E X )/ ² ²(E X )/ ² =, nach auflösen: = (E X )/ P(| X–T X |< (E X )/ ) 1 – Konfidenzintervall [x – (E X )/, x + (E X )/ ] (E X ) = (X) · [1 – Rel(X)]

60 Folie 60 Konfidenzintervall für den Personenparameter unter Annahme einer Normalverteilung: P(|X–T X | < (E X ) · z 1– /2 ) = 1 – wo P(Z

61 Folie 61 Regressionsschätzung Alternative zur Schätzung von T X aus x: Der Personenparameter T X wird vorhergesagt aus dem Beobachtungswert x unter Einbeziehung von E (X) und Rel(X): E (T X |X=x) = a + b x b = Rel(X) a = E (X) · (1–Rel(X)) E (T X |X=x) = (1–Rel(X)) · E (X) + Rel(X) · x Die Regressionsschätzung ist ein gewichtetes Mittel aus Beobachtungswert und Populationsmittelwert.

62 Folie 62 Validitäten Eignung des Tests, andere, unabhängige Verhaltensdaten (beschreibbar als Zufallsvar. Y, Kriteriumsvar.) vorherzusagen Validitätskoeffizient (X,Y) Verdünnungsformel: (X,Y) = (X,Y) / ( ²(X)· ²(Y)) = [ (T X,T Y )+ (E X,E Y )+] / ( ²(X)· ²(Y)) = (T X,T Y ) / ( ( ²(T X )/Rel(X)) · ( ²(T Y )/Rel(Y)) ) = (Rel(X)·Rel(Y)) · (T X,T Y ) / ( ²(T X )· ²(T Y )) = (Rel(X)·Rel(Y)) · (T X,T Y ) wenn X und Y lokal unkorreliert (Irtel wenn nicht) Maximalwert der Validität? Unterschied von Y zu Parallelform des Tests?

63 Folie 63 Beispiel Eignungsprüfung Eine Firma will einen Eignungstest einführen, um geeignete Personen für die Ausbildung auszuwählen. Test mit mehrere Parallelformen –Parallelität prüfen: E (X 1 |H=B) = E (X 2 |H=B) =... ²(X 1 |H=B) = ²(X 2 |H=B) =... Interkorrelationen (X i,X j ), Korrelationen mit externen Kriterien –Reliabilität bestimmen: (X i,X j ) –Validität bestimmen: Kriteriumsvariable Y festlegen, z.B. Ausbildungserfolg (X,Y)

64 Folie 64 Validität von selegierten Stichproben Die Schätzung der Validität bei selegierten Stichproben basiert auf Annahmen über –die Form des Zusammenhangs zwischen Testwert und Kriterium, z.B. Linearität (sehr gewagt) E (Y|x) = + ·x –über die Varianz des Kriteriums als Funktion des Testwerts, z.B. Unabhängigkeit x 1,x 2 : ²(Y|x 1 ) = ²(Y|x 2 ) mit identischen Parametern (,, ²(Y)) für die selegierte wie für die nicht selegierte Population.

65 Folie 65 Validität von selegierten Stichproben Die Selektion bewirkt eine Varianzeinschränkung bei den Testwerten: ²(X') < ²(X). Je höher das Auswahlkriterium gesetzt wird, um so kleiner wird ²(X'). Bei den obigen Annahmen erhält man als Schätzwert für die Validität:

66 Folie 66 Reliabilität des Gesamttests Ein Test X bestehe aus mehrere Parallelformen X 1, X 2,... ²(X 1 +X 2 ) =...= 2 ²(X 1 ) + 2 ²(T X 1 ) = 2 ²(X 1 ) · [1+Rel(X 1 )] Rel(X 1 +X 2 ) = ²(T X 1 +X 2 ) / ²(X 1 +X 2 ) = ²(T X 1 +T X 2 ) / ²(X 1 +X 2 ) = 4 ²(T X 1 ) / 2 ²(X 1 ) · [1+Rel(X 1 )] = 2 Rel(X 1 ) / [1+Rel(X 1 )] Rel(X 1 +X X n ) = n Rel(X 1 ) / [1+(n–1)·Rel(X 1 )] (Spearman-Brown)

67 Folie 67 Reliabilität der Differenz Ein Test X bestehe aus zwei Parallelformen X 1 und X 2. ²(X 1 –X 2 ) =...= 2 ²(X 1 ) – 2 ²(T X 1 ) = 2 ²(X 1 ) · [1–Rel(X 1 )] Rel(X 1 –X 2 ) = ²(T X 1 –X 2 ) / ²(X 1 –X 2 ) = ²(T X 1 –T X 2 ) / ²(X 1 –X 2 ) =

68 Folie 68 Differenz vorher/nachher Ein Test X bestehe aus zwei Parallelformen X 1 und X 2. Sie sind nur dann parallel, wenn sie unter vergleichbaren Bedingungen erhoben werden. Im Rahmen einer Interventionsstudie wird Testform X 1 vor und Testform X 2 nach einer Intervention erhoben. Die Messung nach der Intervention ist nicht mehr parallel zu der Messung vor der Intervention. Sie wird durch eine eigene Zufallsvariable Y beschrieben: X 1 = T X 1 + E X 1, Y = T Y + E Y Annahmen: –Die Intervention ändert nichts an der Streuung: ²(Y) = ²(X 1 ) = ²(X 2 ) –Der Mittelwert ändert sich: T Y = T X 2 + T D

69 Folie 69 Differenz vorher/nachher X 1 = T X 1 + E X 1, Y = T X 2 + T D + E Y = T X 1 + T D + E Y D = Y – X 1 = T D + E Y – E X 1 ²(D) =...=2 ²(X 1 ) · [1– (X 1,Y)] [Rel(X 1 )+Rel(Y)]/2 – (X 1,Y) Rel(D) =...=––––––––––––––––––––––––– 1 – (X 1,Y) Eine hohe Korrelation von Vor- und Nachtest ergibt eine niedrige Reliabilität der Differenz. Der Interventionserfolg E (D) ist dann zwar gut meßbar, aber der Personenparameter T D eignet sich nicht zur Vorhersage. Bei niedriger Vor/Nachtestkorrelation könnte T D valide sein, z.B. eine individuelle Prognose über den Erfolg einer weiteren Intervention vorhersagen.

70 Folie 70 Einzelne Testaufgaben Die klassische Testtheorie behandelt Tests, nicht Testaufgaben. Die statistischen Parameter einzelner Testaufgaben sind daher nur Hilfsmittel. Eine korrekte Behandlung von einzelnen Testaufgaben erfolgt erst in der logistischen Testtheorie. Ein Test X bestehe aus n Aufgaben. Die Zufallsvariablen U j, j=1...n bezeichnen den Ausgang einer einzelnen Testaufgabe, mit –u j = 1bedeutet richtig, bzw. mehr des Merkmals –u j = 0bedeutet falsch, bzw. weniger des Merkmals

71 Folie 71 Die Schwierigkeitsstatistik Schwierigkeitsstatistik: j = E (U j ) –Schätzwerte für j abhängig von Stichprobe – X = j=1...n U j – E (X) = j=1...n j Ratekorrektur: –fiktive Wahrscheinlichkeit p j Person "weiß" die Antwort –Ratewahrscheinlichkeit 1/a –P(U j =1) = j = p j + (1 – p j ) · 1/a –p j = ( j – 1/a) / (1 – 1/a) = (a j – 1) / (a – 1) –a : ???

72 Folie 72 Die Trennschärfestatistik Zufallsvariable U j –Wertebereich:U j ( ) = {0,1} –Erwartungswert: E (U j ) = j –Varianz: (U j,U j ) = ??? –Bei welchen j ist die Varianz maximal? Testwert X = j=1...n U j – (X,X) = ( j=1...n U j, j=1...n U j ) = j=1...n j'=1...n (U j,U j' ) = j=1...n j'=1...n (U j ) (U j' ) (U j,U j' )

73 Folie 73 Die Trennschärfestatistik Testwert X = j=1...n U j – (X,X) = ( j=1...n U j, j=1...n U j ) = j=1...n j'=1...n (U j,U j' ) = j=1...n j'=1...n (U j ) (U j' ) (U j,U j' ) – (X,X) = ( j=1...n U j,X) = j=1...n (U j,X) = j=1...n (U j ) (X) (U j,X) (X) = j=1...n (U j ) (U j,X) (U j,X) = Trennschärfestatistik – (U j,X) = (U j, j=1...n U j ) = (kleiner Fehler in Irtel, Gl. 2.50)

74 Folie 74 Aufgabenvaliditätsstatistik Testwert X = j=1...n U j – (X,Y) = ( j=1...n U j,Y) = (kleiner Fehler in Irtel, Gl. 2.51) j=1...n (U j,Y) = j=1...n (U j ) (Y) (U j,Y) (U j,Y) = Aufgabenvaliditätsstatistik – (X,Y) = (X,Y) / [ (X) (Y)] = j=1...n (U j ) (U j,Y) / j=1...n (U j ) (U j,X)

75 Folie 75 Wann ist ein Test ein Test? Ein System psychometrischer Daten mit n 2 ist ein psychometrischer Test mit linearer Struktur, wenn mindestens zwei der Beobachtungswerte X k parallel sind. –Erwartungswerte und Varianzen in Teilpopulationen –Korrelationen mit externem Kriterium –n 3: Interkorrelationen

76 Folie 76 Stärke und Schwäche der klassischen Testtheorie Die klassische Testtheorie mißt nicht eine Eigenschaft der Person (unabhängig vom Meßverfahren). Die klassische Testtheorie mißt die Fähigkeit, den Test zu lösen. Der Bezug vom Beobachtungswert X zur Eigenschaft mag nichtlinear sein. Der Beobachtungswert X ist für sich betrachtet intervallskaliert.


Herunterladen ppt "Folie 1 Theorie und Konstruktion psychologischer Tests."

Ähnliche Präsentationen


Google-Anzeigen