Theorie und Konstruktion psychologischer Tests

Slides:



Advertisements
Ähnliche Präsentationen
Zufallsfelder Def. Zufallsfeld: Sei V eine endliche Menge (von Orten). Für jedes v V existiere eine (endliche) Menge X(v) von Zuständen x(v). Der Raum.
Advertisements

Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Programmierung 1 - Repetitorium
Die Laufzeit von randomisierten (zufallsgesteuerten) Algorithmen hängt von gewissen zufälligen Ereignissen ab (Beispiel Quicksort). Um die Laufzeiten dieser.
Diskrete Mathematik I Wintersemester 2007 A. May
Übung zur Vorlesung Theorien Psychometrischer Tests I
Übungsbetrieb Di neuer Raum HZO 60
Alternativ: Direkte schrittweise Berechnung dieser sogenannten gemeinsamen Wahrscheinlichkeiten auf Grund der Einzelwahrscheinlichkeiten Wahrscheinlichkeit.
Was ist Testtheorie?.
Wahrscheinlichkeitstheorie
Philosophische Fakultät 3: Empirische Humanwissenschaften Fachrichtung Erziehungswissenschaft Statistik I Anja Fey, M.A.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Universität Dortmund, Lehrstuhl Informatik 1 EINI II Einführung in die Informatik für Naturwissenschaftler und Ingenieure.
Wahrscheinlichkeitstheorie
Bitte mein Manuskript (liegt im Bibliotheksgebäude aus) nicht nach Außerhalb tragen. Die Weitergabe an Dritte (d. h. an Personen, die nicht Hörer der Vorlesung.
Die Student- oder t-Verteilung
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Hier noch ein Beispiel zur bedingten Wahrscheinlichkeit Drei Personen A, B und C befinden sich im Gefängnis. Einer von den dreien ist zum Tode verurteilt,
FILTER Input: Empirische Zeitreihe Output: Geglättete Zeitreihe.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
II. Wahrscheinlichkeitstheorie
Wahrscheinlichkeitstheorie. Statistische Methoden I WS 2009/2010 Einleitung: Wie schätzt man die Zahl der Fische in einem See? Zur Geschichte der Statistik.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Die Vorlesung Statistische Methoden I fällt morgen ( ) aus! Zeit: 14:15 Ort: Hörsaal Loefflerstraße Diese Vorlesung wird am nächsten Donnerstag.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Statistische Maßzahlen
Bedingte Wahrscheinlichkeiten Die Belegschaft eines Betriebes wird nach Rauchern und Nicht- rauchern eingeteilt. Dabei ergibt sich die folgende Tabelle:
Wahrscheinlichkeitstheorie. Statistische Methoden I WS 2002/2003 Zur Geschichte der Statistik I. Beschreibende Statistik 1. Grundlegende Begriffe 2. Eindimensionales.
Urnenmodelle. Die Normalverteilung (Gauß-Verteilung) (Gaußsche Glockenkurve)
Probeklausur am 21. Januar 2005 statt Vorlesung. Wahrscheinlichkeitstheorie.
Grundbegriffe der (deskriptiven) Statistikder Wahrscheinlichkeitstheorie.
Statistische Methoden I WS 2004/2005 Probeklausur Freitag, 21. Januar statt Vorlesung - In 2 Wochen In 2 Wochen!
Verteilungsfunktion der Normalverteilung I. Verteilungsfunktion der Normalverteilung II.
Grundbegriffe der (deskriptiven) Statistik
Klausur am :00 bis 13:00 Hörsaal Loefflerstraße und Hörsaal Makarenkostraße.
§9 Der affine Raum – Teil 2: Geraden
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Maschinelles Lernen und automatische Textklassifikation
Einschub: Axiomatische Mengenlehre
Allgemeine stetige Verteilungen und konkrete Anwendungen
§17 Produkte und Quotienten von Vektorräumen
1. Mengenlehre Grundbegriffe.
Normalverteilung bei stetigen Zufallsgrößen
1. Mengenlehre Grundbegriffe.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Wahrscheinlichkeit Zufallsexperiment:
Erfindervon Fuzzy Logic
Symposium "Neue Studiengänge"
Stetige Verteilungen Das Uhrenbeispiel Dichtefunktion
POCKET TEACHER Mathematik Algebra
Theorie psychometrischer Tests, II
Fachschaft Mathematik und Informatik
Leere Menge, Teilmenge, N, Z
Karl-Franzens Universität Graz, Inst. f. Psychologie, Abt. f
2. Mengen Unter einer Menge verstehen wir jede Zusammenfassung von bestimmten wohlunterschiedenen Objekten unserer Anschauung oder unseres Denkens zu.
Wiederholung/Zusammenfassung
Testtheorie (Vorlesung 4: ) Wiederholung/Zusammenfassung
K. Desch - Statistik und Datenanalyse SS05 1 Zusammenfassung 2. Vorlesung (22.4.) Schiefe (Skewness): Maß für die Asymmetrie der Verteilung um den Mittelwert.
K. Desch - Statistik und Datenanalyse SS05
K. Desch - Statistik und Datenanalyse SS05 Statistik und Datenanalyse 1.Wahrscheinlichkeit 2.Wahrscheinlichkeitsverteilungen 3.Monte-Carlo-Methoden 4.Statistische.
Geoinformationssysteme
Test 1 Test 2 Test 3. Test 4 Test 5 Test 6 Test 7 Test 8 Test 9.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
IS: Datenbanken, © Till Hänisch 2000 Relationenalgebra Die mathematische Grundlage von relationalen Datenbanken.
Wahrscheinlichkeitsrechnung -
Test.
 Präsentation transkript:

Theorie und Konstruktion psychologischer Tests

Literatur Hans Irtel Entscheidungs- und testtheoretische Grundlagen der Psychologischen Diagnostik Frankfurt am Main: Verlag Peter Lang, 1996 (ISBN 3-631-49374-6) im Web als PDF

Gliederung Wahrscheinlichkeitstheorie Klassische Testtheorie Logistische Testmodelle Entscheidungstheorie

Warum brauchen wir die Wahrscheinlichkeitstheorie? Psychologische Daten unterliegen vielen Einflußgrößen, viele davon sind nicht kontrollierbar. Eine Wiederholung einer Erhebung liefert nicht mit Sicherheit das gleiche Ergebnis. Bei einem guten Test reproduzibel: Statistische Daten (Mittelwerte, Streuungen)

Wahrscheinlichkeitstheorie I Mengenlehre Was ist Zufall? Der Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeiten

Warum brauchen wir die Mengenlehre? Wahrscheinlichkeitsberechnungen beruhen auf dem Vergleich der Mächtigkeit von Mengen.

Mengenlehre I Naive Mengenlehre (Cantor) Eine Menge ist eine Zusammenfassung von von bestimmten wohl unterschiedenen Objekten (Elementen) Schreibweisen: M = {a,b,c...}, M={xN|x>7},  Teilmenge: AB  (xAxB), BA Vereinigungsmenge: AB = {x|xAxB} Schnittmenge: AB = {x|xAxB} Komplement, Differenz: A =  \ A {x|xxA} Kommutativität, Assoziativität, Distributivität De Morgan: AB = AB, AB = AB A sei eine Menge. Potenzmenge: Menge aller Teilmengen X={x|xA} Menge aller Mengen Menge aller Mengen die sich nicht selbst enthalten (Russell) Russell: Typentheorie. Zermelo-Fraenkel-Mengenlehre. Gödel.

Mengenlehre II A AB kartesisches Produkt: AB = {(a,b)|aAbB} ABC, AAA = A3 binäre Relation: RAB. Statt (a,b)R schreibe aRb. Beispiel: K = {(a,b)|(a,b)NNa<b} reflexiv  a: aRa symmetrisch  a,b: (aRb  bRa) transitiv  a,b,c: (aRb  bRc  aRc) äquivalent: RAA reflexiv, symmetrisch, und transitiv. a~b Äquivalenzklasse: KA, K, aKbK  a~b, aKa~b  bK Schreibweise: {xA|x~a} = [a] K=[a], K'=[b]  K=K'  KK'= 

Mengenlehre III Zerlegung: Sei A eine Menge, und ~ eine Äquivalenzrelation auf A. Dann heißt die Menge A/~ aller Äquivalenzklassen von A bzgl. ~ die von ~ induzierte Zerlegung. K,LA/~ KL  KL= Vereinigungsmenge aller Elemente von A/~ Definition von ~ über eine Zerlegung Zerlegung eines Hypothesenraums für die Hypothesenprüfung nach Bayes

Mengelehre IV Eine binäre Relation f auf AB heißt eine Abbildung, wenn gilt f ist linkstotal: aA bB sodaß (a,b)f. f ist rechtseindeutig: (a,b)f  (a,c)f  b=c A: Definitionsbereich, B: Wertebereich von f. alternativer Name: Funktion. Schreibweisen: (a,b)f, afb, b=f(a), f: AB, MA, NB : f(M)=N heißt „Bild von M“, f–1(N)=M „Urbild von N“ surjektiv: bB aA sodaß (a,b)f. rechtstotal. bitotal. injektiv: (a,c)f  (b,c)f  a=b. linkseindeutig. eineindeutig. bijektiv: surjektiv und injektiv. Sei f bijektiv. Dann ist auch die „Umkehrabbildung“ f –1 bijektiv. endlich, unendlich; abzählbar, überabzählbar

Mengenlehre und Logik Verwandtschaft von Mengenlehre und Logik   A Hausaufgaben (unter anderem): überprüfen, welche Gesetze der Mengelehre genauso in der Logik gelten. vertraut machen mit Wahrheitstafeln! , , , , 

Zufallsexperimente Ergebnis nicht mit Sicherheit vorhersagbar, Menge aller möglichen Ergebnisse bekannt. „Ergebnisraum“  = {1, 2, 3, ...} Beispiel: Detektionsexperiment Ergebnisraum:  = {+,} Beispiel: Stellung von Ehepaaren zu Geschwindigkeitsbegrenzung auf Autobahnen Ergebnisraum:  = {0,1,2} (Zahl der Ja-Antworten) Ergebnisraum:  = {(J,J),(J,N),(N,J),(N,N)} Ergebnisraum hängt von der Struktur des Experimentes und von der Fragestellung ab

Ereignisse Teilmenge A des Ergebnisraums  ist ein „Ereignis“. Ergebnis i (direkt) beobachtbar: Ausgang des Experiments Ereignis = wahrscheinlichkeitstheoretisches Konzept: „Ereignis tritt ein / wird (indirekt) beobachtet “ = Ergebnis  Ereignis Beispiel: E = „Ehepaar antwortet gleich“  = {0,1,2}: E = {0,2}  = {(J,J),(J,N),(N,J),(N,N)}: E = {(J,J),(N,N)} Elementarereignis: Ereignis mit nur einem Element, {i} Ergebnisraum und leere Menge sind Ereignisse Operationen auf Ereignissen: Vereinigung, Schnittmenge, Komplement

Wahrscheinlichkeiten von Ereignissen für endliche oder abzählbare („diskrete“) Ergebnisräume: Wahrscheinlichkeit: P: Potenzmenge()  R so daß P({i})  0, P({1}) + P({2}) + P({3}) + .... = 1. P(A) = AP({}) keine weitere Annahmen über P({i}), insbesondere nicht gleichwahrscheinlich Problem bei überabzählbaren Mengen

-Algebra Axiomatische Definition nach Kolmogorov: Sei  ein Ergebnisraum, und S eine Menge von Teilmengen von , dann heißt S eine -Algebra in , wenn gilt   S A  S  A  S A1, A2, A3...  S  A1  A2  A3...  S S ist abgeschlossen bzgl. Komplement, ,  S kann abzählbar sein, auch wenn  überabzählbar ist.

Wahrscheinlichkeitsraum Sei  ein Ergebnisraum und S eine -Algebra in . Dann ist die Abbildung P: S  R eine Wahrscheinlichkeit, wenn gilt: P(A)  0 für alle AS, P() = 1, -Additivität: A1, A2, A3...  S , paarweise disjunkt P(A1 A2 A3...) = P(A1) + P(A2) + P(A3) +... Übungen: , P(A), AB

Bedingte Wahrscheinlichkeit Seien A und B Ereignisse, mit P(B)>0. Dann wird die bedingte Wahrscheinlichkeit, daß A eintritt „gegeben B“, definiert als: P(A|B)  P(AB)/P(B) Beispiel: ein Säckchen enthalte weiße und schwarze Spielsteine aus Holz und aus Plastik: 40 weiße aus Holz, 10 weiße aus Plastik, 30 schwarze aus Holz, 20 schwarze aus Plastik. Ich ziehe einen Stein. Wie groß ist P(w|H), p(H|w), p(H), p(w), ... P(AB) = P(A|B)  P(B) = P(B|A)  P(A)

Stochastische Unabhängigkeit A und B sind stochastisch unabhängig, wenn gilt: P(A|B) = P(A) Fragen: P(B|A) = ? P(AB) = ? P(A|B) = ? Beispiel: A tritt nach B ein. A ist unabhängig von B, wenn das erste „Teilergebnis“ (aus B oder aus B) keinen Einfluß auf die Wahrscheinlichkeit für das Auftreten von A hat. Zwei Ereignisse seien disjunkt. Beide haben eine Wahrscheinlichkeit größer Null. Können sie unabhängig sein?

Unabhängige Familien Sei C eine Menge von Ereignissen. C heißt Familie unabhängiger Ereignisse, wenn für alle endlichen Teilmengen von C gilt: P(A1A2A3...) = P(A1)  P(A2)  P(A3) ... Reicht paarweise Unabhängigkeit aller Elemente für die Unabhängigkeit der Familie?

Bayes Sei {B1, B2, ...} eine Zerlegung von . (paarweise disjunkt, Vereinigung aller Bi = ). Dann gilt: Beispiel: Bi (unbeobachtbare) Hypothesen, A (beobachtbare) Versuchsergebnisse, P(A|Bi) bekannt („Voraussagen“), P(Bi) a priori Wahrscheinlichkeiten für Hypothesen, P(Bi|A) a posteriori Wahrscheinlichkeiten der Hypothesen.

Beispiel: Entscheidungstheorie Jeder Stimulus löst eine interne Repräsentation aus, die sich durch einen eindimensionalen Parameter e beschreiben läßt. e ist Gauß-verteilt , mit  = 1 und µ = 0 (Rauschen) bzw. µ = d‘ (Signal). Bei Ja/Nein-Aufgaben setzt die VP ein Kriterium k und sagt „Ja“ wenn e > k. P (S | e) ist eine monotone Funktion von e:  Ein Kriterium in e ist gleichzeitig ein Kriterium in P (S | e). d‘ 0 2 e k „Nein“ „Ja“

Bedingte Unabhängigkeit Sei  ein Ergebnisraum, S eine -Algebra in , P eine Wahrscheinlichkeit auf S, und C ein Ereignis. Dann ist auch PC: S  R mit PC(A) = P(A|C) eine Wahrscheinlichkeit auf S. Zwei Ereignisse A und B heißen „bedingt unabhängig bezüglich C“, wenn sie bezüglich PC unabhängig sind: PC(A|B) = PC(A). PC(AB) = PC(A)  PC(B) P(AB|C) = P(A|C)  P(B|C)

Zufallsvariablen Warum brauchen wir Zufallsvariablen? Mit Mengen kann man nicht „rechnen“ (+,,...). Abbildung von  auf R bzw. R = R  {,} Abbildung von  auf abzählbare Menge bzw. N

Reelle Zufallsvariablen Sei  ein Ergebnisraum, S eine -Algebra in , P eine Wahrscheinlichkeit auf S. X:   (R bzw.) R heißt (reelle) Zufallsvariable genau dann wenn xR: {|X()x}  S S = {,}, X ? Das Urbild jedes Intervalls (,x] ist ein Ereignis. (S-Meßbarkeit von X). Dies ermöglicht die Übertragung der Wahrscheinlichkeit P von der -Algebra S auf den Wertebereich von X.

Verteilungsfunktion Definition der Verteilungsfunktion F(x) = P({|X()x}) = P(Xx) monoton steigend (warum?) F(), F(+) Gibt es für die reelle Zufallsvariable X:   R eine nichtnegative Funktion f: R  R mit F(x) = x f(y) dy, dann ist f die Wahrscheinlichkeitsdichte von X. P(axb) = ab f(y) dy  f(y) dy = ???

Diskrete Zufallsvariablen Sei  ein Ergebnisraum, S eine -Algebra in , P eine Wahrscheinlichkeit auf S. X:   E (E abzählbar) heißt diskretes Zufallselement. Zusätzlich ER: X ist diskrete Zufallsvariable. Definition der Wahrscheinlichkeitsfunktion p(x) = P({|X()=x}) = P(X=x) BE: P(B) = xBp(x). Zufallsvariable X: Verteilungsfunktion F(x) = P(Xx) = yxp(y). AS: Indikatorfunktion 1A() = 1 wenn A, 0 sonst.

Unabhängige Zufallsvariablen Reelle Zufallsvariablen X1, X2, ... sind stochastisch unabhängig, wenn für alle x1, x2, ... R gilt: P(X1x1, X2x2, ...) = P(X1x1)  P(X2x2)  ... Wenn alle Xi Dichten besitzen, gilt F(x1,x2,...) = x1 f1(y1) dy1  x2 f2(y2) dy2  ... = x1x2 ... f1(y1) f2(y2) dy1 dy2 ...  Wahrscheinlichkeitsdichte f(x1,x2,...) = f1(x1)  f2(x2)  ...

Zufallsstichprobe Folge von Zufallsexperimenten in einer Population Jedes Element der Population hat die gleiche Wahrscheinlichkeit, beobachtet zu werden. einzelne Beobachtung: Ergebnis  und X() registrieren. Die einzelnen Beobachtungen müssen stochastisch unabhängig sein. Folge Xi stochastisch unabhängiger und identisch verteilter (P(Xix)=F(x)) Zufallsvariablen.

Modus, Median, Quantile Sei X eine reelle Zufallsvariable mit Verteilungsfunktion F(x) und Wahrscheinlichkeitsdichte f(x). Modus: f(xm) hat ein (lokales?) Maximum -Quantil: F(x) =  Median: 0,5-Quantil Sei X eine diskrete Zufallsvariable mit Wahrscheinlichkeitsfunktion p(x) und Verteilungsfunktion F(x). Modus: p(xm) ist maximal -Quantil: P(Xx)    P(Xx)  1–

Erwartungswert, Varianz Sei X eine reelle Zufallsvariable mit Wahrscheinlichkeitsdichte f(x). Erwartungswert: E (X) =  xf(x) dx Varianz: V(X) = ²(X) = E ( (X–E (X))² ) = E (X²) – E (X)² Standardabweichung (X) (positive Wurzel von V(X)) Sei X eine diskrete Zufallsvariable mit Wahrscheinlichkeitsfunktion p(x). Erwartungswert: E (X) = xX() xp(x) Varianz und Standardabweichung wie oben

Rechenregeln mit E und V Zufallsvariable „a“ sei konstant: E (a) = a. E ist linear: E (aX + bY) = a E (X) + b E (Y) Zufallsvariable „a“ sei konstant: V(a) = 0. V(X+a) = V(X) V(aX) = a²V(X)

Vorhersage Seien X und Y zwei Zufallsvariablen. Wie genau erlaubt die Kenntnis von X, den Wert von Y vorherzusagen, und welcher Wert wäre das? Vorhergesagter Wert Y' = F (X) Vereinfachung: Existiert ein linearer Zusammenhang? Y' = a + b X Y' = a + b X + e

Linearität Fast jeder Zusammenhang ist lokal linear global nichtlinear

Das lineare Modell Y' = a + b X Y' = a + b X + e e = Y – Y' E (e) = 0 Ziel: E (e²) minimieren E (Y) = a + b E (X) Achsabschnitt a = E (Y) – b E (X) Steigung b = ??? Y X Y' = a + b X ei

Varianz und Kovarianz V(X) = VXX = E ( (X–E (X))² ) V(Y) = VYY = E ( (Y–E (Y))² ) V(X,Y) = VXY = E ( (X–E (X))(Y–E (Y)) ) VYX = VXY = E (X·Y) – E (X) E (Y) Vxy ist positiv, wenn positive Abweichungen in X mit positiven Abweichungen in Y einhergehen, und negative mit negativen. Vxy ist negativ, wenn... Vxy ist Null, wenn...

z-transformierte Zufallsvariablen Y = a + b X + e E (Y) = a + b E (X) Wenn X und Y z-transformiert sind, wenn also gilt: E (X) = E (Y) = 0 und VXX = VYY = 1, dann gilt für die Regressionsgerade: Achsabschnitt a = 0 und Steigung b = VXY = E (X·Y)

Vertauschung von X und Y Wenn man bei z-transformierten Zufallsvariablen X und Y vertauscht, bleibt die Steigung der Regressionsgerade gleich... Y X X' = (1/b) Y ei X' = b Y Y X Y' = b X ei Koordinaten- ursprung

Korrelationskoeffizient und Steigung Steigung bY·X = VXY / VXX Steigung bX·Y = VXY / VYY  1 / bY·X = VXX / VXY rXY = VXY / (VXX  VYY) bY·X = rXY   (VYY/VXX) = rXY  SY/SX bX·Y = rXY   (VXX/VYY) = rXY  SX/SY rXY² = VXY² / (VXX  VYY) E (e²) = VYY  ( 1 – rXY² ) = ( 1 – rXY² ) für z-transformierte Daten

Rechenregeln mit Kovarianz V(aX + bY) = a²VXX + b²VYY + 2abVXY V(i=1...nXi) = i=1...n j=1...n VXiXj VX+Y,Z = VXZ + VYZ Sind X und Y stochastisch unabhängig, dann gilt E (X·Y) = E (X) E (Y) VXY = 0 Z=X+Y: VZZ = VX + VY Z=X–Y: VZZ =

Tschebyschew P(|X–E (X)|)  VXX/²

Zentraler Grenzwertsatz Seien Xi, i=1...n, unabhängig verteilte Zufallsvariablen (beliebige Verteilungen). Dann ist die Summe Sn = i=1...n Xi approximativ normalverteilt, mit Erwartungswert E (Sn) = und Varianz V(Sn) =

Mehrdimensionale Zufallselemente Sei <,S,P> ein Wahrscheinlichkeitsraum und X und Y Zufallselemente mit Wertebereichen EX und EY. Dann ist p: EXEY  R, p(x,y) = P(X=x,Y=y) = P({|X()=x  Y()=y}) die gemeinsame Wahrscheinlichkeitsfunktion des Zufallsvektors (X,Y). P(X=x) = yEY p(x,y) = p(x,*) ist die Randwahrscheinlichkeitsfunktion von X.

Mehrdimensionale Zufallsvariablen Sei <,S,P> ein Wahrscheinlichkeitsraum und X und Y Zufallsvariablen. Sie haben eine gemeinsame Wahrscheinlichkeitsdichte f wenn für alle reellen Zahlen x, y gilt: P(Xx,Yy) = x y f(u,v) du dv. Dann gilt auch P(Xx) = x f(u,*) du mit der Randwahrscheinlichkeit f(u,*) = + f(u,v) dv.

Bedingte Wahrscheinlichkeitsfunktionen Sei <,S,P> ein W.-raum, X und Y Zufallselemente mit Wertebereichen EX und EY, der gemeinsamen W.-funktion p(x,y) und den Randwahrscheinlichkeiten p(x,*) = p(x) und p(*,y) = p(y). Sei A = {(x,y)|x=x'}, B= {(x,y)|y=y'} mit P(A) > 0. Dann gilt P(B|A) = P(Y=y'|X=x') = P(AB)/P(A) = p(y',x')/p(x'). Definition: p(y|x)  p(y,x)/p(x) (für p(x) > 0) (bedingte Wahrscheinlichkeit für Y gegeben X=x).

Bedingte Wahrscheinlichkeitsfunktionen Sei <,S,P> ein W.-raum, X und Y Zufallsvariablen mit der gemeinsamen W.-dichte f(x,y) und den Randwahrscheinlichkeiten f(x,*) = f(x) und f(*,y) = f(y). Definition: f(y|x)  f(y,x)/f(x) (für f(x) > 0) (bedingte W.-dichte für Y gegeben X=x). f(y|x) ist nichtnegativ, + f(y|x) dy = 1,  f(y|x) ist eine Wahrscheinlichkeitsdichte. P(Y<y|X=x) = y f(u|x) du. E (Y|x) = + y·f(y|x) dy (bedingter Erwartungswert)

Bedingte Erwartung: eine Zufallsvariable Sei <,S,P> ein Wahrscheinlichkeitsraum, X:   R eine Zufallsvariable, und H:   EH ein diskretes Zufallselement. Ist E (X) eine Zufallsvariable? (  R) Ist E (X|H=h) eine Zufallsvariable? ausführlichere Schreibweise: E (X|H()=h) bedingte Erwartung: TX:   R, TX() = tX(H()), mit tX: EH  R, tX(h) = E (X|H=h).

Bedingte Erwartung: Rechenregeln bedingte Erwartung: TX:   R, TX() = tX(H()), mit tX: EH  R, tX(h) = E (X|H=h). TX+Y = TX + TY TaX = a · TX allgemein: TX·Y  TX · TY Spezialfall: Y konstant auf Äquivalenzklassen von /~H: TX·Y = Y · TX TY = Y, TTX = TX, E (TX) = E (X)

Klassische Testtheorie Der Beobachtungswert setzt sich additiv aus dem „wahren“ Meßwert und einem Fehlerwert zusammen. Der Fehlerwert wird auch als „statistischer Fehler“ bezeichnet. Der „wahre“ Wert muß nicht valide sein („systematischer Fehler“). Die Datenerfassung ist ein Zufallsexperiment in zwei Teilen Auswahl einer Person aus einer Population, Erhebung der Daten bei dieser Person.

System psychometrischer Daten Sei <,S,P> ein Wahrscheinlichkeitsraum, Xk:   R eine endliche Folge von Zufallsvariablen mit endlichem Erwartungswert und endlicher Varianz, und H:   A ein diskretes Zufallselement. Dann ist <,S,P,{Xk|k=1...n},H> ein System psychometrischer Daten. Beispiel: Herzfrequenz. : {... (P713, 71), (P713, 72), (P713, 73), ... (P714, 71), ...} H(): P713 (Personenfilter) X(): 72 (Datenfilter) HF ... P713 P714 71 72  73

Personenparameter Sei <,S,P,{Xk|k=1...n},H> ein Syst. psychom. Daten. Der Personenparameter TXk zur Zufallsvariable Xk ist die Zufallsvariable TXk:   R mit TXk() = E (X | H(')=H()) TXk ist auf  definiert, ist mit der -Algebra S auf  verträglich, aber auch mit SH, der analogen -Algebra auf /H.  BSH: E (TXk | B) = E (Xk | B). HF ... P713 P714 71 72 73 TX 72,3 68,1

Fehlerwert Sei <,S,P,{Xk|k=1...n},H> ein Syst. psychom. Daten. Der Fehlerwert EXk zur Zufallsvariable Xk ist die Zufallsvariable EXk:   R mit EXk = Xk – TXk. HF ... P713 P714 71 72 73 TX 72,3 68,1

Klassische Testtheorie: Grundannahmen Sei <,S,P,{X,Y},H> ein System psychom. Daten. X = TX + EX  BSH: E (EX | B) = 0 (EX,TX) = 0 (EX,TY) = 0 ²(X) = ²(TX) + ²(EX)  folgt aus den Definitionen von Personenparameter und Fehlerwert r(EX,EY) = 0 (zusätzliche Annahme) IQ ... P713 P714 71 72 73 TY 72,3 68,1 HF ... P713 P714 71 72 73 TX 72,3 68,1

Reliabilität Rel(X)  ²(TX) / ²(X) ²(X,TX) = Rel(X) (s. Irtel) 1 = ²(TX) / ²(X) + ²(EX) / ²(X) 1 – Rel(X) = ²(EX) / ²(X) (EX) = (X) ·  [1 – Rel(X)]

Abschätzung des Meßfehlers In der Meßtheorie ist die Methode der Wahl zur Abschätzung des Meßfehlers die Meßwiederholung. Problem: In der Psychodiagnostik kann das gleiche Meßinstrument in der Regel nicht wiederholt eingesetzt werden. Ansatz: „Parallele Messungen“, d.h. parallele Testformen, die in den wesentlichen Parametern übereinstimmen. Beispiel: Blutdruckmessung linker/rechter Arm

Parallele Messung Beschränkung einer Zufallsvariable X:   R auf eine Person: X|H=a: H–1(a)  R Wie groß ist ²(TX|H=a)? Wir erinnern uns: ²(X) = ²(TX) + ²(EX). Wie groß ist ²(EX|H=a)? X1 und X2 heißen lokal unkorreliert, wenn aH(): (X1|H=a,X2|H=a) = 0 X1 und X2 heißen parallel, wenn lokal unkorreliert und aH(): E (X1|H=a) = E (X2|H=a) aH(): ²(X1|H=a) = ²(X2|H=a)

Parallelität verifizieren X1 und X2 heißen parallel, wenn lokal unkorreliert und aH(): E (X1|H=a) = E (X2|H=a) aH(): ²(X1|H=a) = ²(X2|H=a) Daraus folgt E (X1|H=B) = E (X2|H=B) BH(): ²(X1|H=B) = ²(X2|H=B) Daraus folgt: E (X1) = E (X2) ²(X1) = ²(X2) Der Umkehrschluß ist unzulässig. In anderen Worten: Parallelität kann man falsifizieren, nicht verifizieren. nicht meßbar meßbar

Empirische Bestimmung der Reliabilität X1 und X2 heißen lokal unkorreliert, wenn aH(): (X1|H=a,X2|H=a) = 0 (EX1,EX2) = 0 (EX1,EX2) = 0 (X1,X2) = (TX1,TX2) = ²(TX1) (X1,X2) = (X1,X2)/(²(X1)·²(X2)) = ²(TX1) / ²(X1) = Rel(X1) = Rel(X2) Die Reliabilität eines Tests kann anhand von zwei Parallelformen des Tests bestimmt werden.

Interkorrelationen Weitere Möglichkeiten, die Parallelität zu überprüfen: Sind Tests X1, X2, ... Xn parallel, dann sind ihre Interkorrelationen gleich: (X1,X2) = (X1,X3) = (X2,X2) = (X1,X4) = ... Sind Tests X1, X2, ... Xn parallel, und ist Test Y mit X1, X2, ... Xn lokal unkorreliert, dann sind die Korrelationen mit Y gleich: (X1,Y) = (X2,Y) = (X3,Y) = ...

Konfidenzintervall für den Personenparameter nach Tschebyschew, P(|Z–E (Z)|)  ²(Z)/², keine Annahmen über die Verteilung von Z: 1 – P(|Z–E (Z)|<)  ²(Z)/² 1 – ²(Z)/²  P(|Z–E (Z)|<) P(|X–TX|<) = P(|EX–E (EX)|<)  1 – ²(EX)/² ²(EX)/² = , nach  auflösen:  = (EX)/ P(| X–TX|< (EX)/)  1 –  Konfidenzintervall [x – (EX)/, x + (EX)/] (EX) = (X) ·  [1 – Rel(X)]

Konfidenzintervall für den Personenparameter unter Annahme einer Normalverteilung: P(|X–TX| < (EX) · z1–/2) = 1 –  wo P(Z<zp) = p (Z: Standardnormalvert.) anders gesagt: zp = KNV–1(p) (z0.975 = 1.96) KNV = kumulative Normalverteilung Konfidenzintervall [x – (EX) z1–/2, x + (EX) z1–/2] (EX) = (X) ·  [1 – Rel(X)]

Regressionsschätzung Alternative zur Schätzung von TX aus x: Der Personenparameter TX wird vorhergesagt aus dem Beobachtungswert x unter Einbeziehung von E (X) und Rel(X): E (TX|X=x) = a + b x b = Rel(X) a = E (X) · (1–Rel(X)) E (TX|X=x) = (1–Rel(X)) · E (X) + Rel(X) · x Die Regressionsschätzung ist ein gewichtetes Mittel aus Beobachtungswert und Populationsmittelwert.

Validitäten Eignung des Tests, andere, unabhängige Verhaltensdaten (beschreibbar als Zufallsvar. Y, „Kriteriumsvar.“) vorherzusagen Validitätskoeffizient (X,Y) Verdünnungsformel: (X,Y) = (X,Y) /  (²(X)·²(Y)) = [(TX,TY)+(EX,EY)+] /  (²(X)·²(Y)) = (TX,TY) /  ( (²(TX)/Rel(X)) · (²(TY)/Rel(Y)) ) =  (Rel(X)·Rel(Y)) · (TX,TY) /  (²(TX)·²(TY)) =  (Rel(X)·Rel(Y)) · (TX,TY) wenn X und Y lokal unkorreliert (Irtel wenn nicht) Maximalwert der Validität? Unterschied von Y zu Parallelform des Tests?

Beispiel Eignungsprüfung Eine Firma will einen Eignungstest einführen, um geeignete Personen für die Ausbildung auszuwählen. Test mit mehrere Parallelformen Parallelität prüfen: E (X1|H=B) = E (X2|H=B) = ... ²(X1|H=B) = ²(X2|H=B) = ... Interkorrelationen (Xi,Xj), Korrelationen mit externen Kriterien Reliabilität bestimmen: (Xi,Xj) Validität bestimmen: Kriteriumsvariable Y festlegen, z.B. Ausbildungserfolg (X,Y)

Validität von selegierten Stichproben Die Schätzung der Validität bei selegierten Stichproben basiert auf Annahmen über die Form des Zusammenhangs zwischen Testwert und Kriterium, z.B. Linearität (sehr gewagt) E (Y|x) =  + ·x über die Varianz des Kriteriums als Funktion des Testwerts, z.B. Unabhängigkeit x1,x2: ²(Y|x1) = ²(Y|x2) mit identischen Parametern (, , ²(Y)) für die selegierte wie für die nicht selegierte Population.

Validität von selegierten Stichproben Die Selektion bewirkt eine Varianzeinschränkung bei den Testwerten: ²(X') < ²(X). Je höher das Auswahlkriterium gesetzt wird, um so kleiner wird ²(X'). Bei den obigen Annahmen erhält man als Schätzwert für die Validität:

Reliabilität des Gesamttests Ein Test X bestehe aus mehrere Parallelformen X1, X2, ... ²(X1+X2) = ... = 2 ²(X1) + 2 ²(TX1) = 2 ²(X1) · [1+Rel(X1)] Rel(X1+X2) = ²(TX1+X2) / ²(X1+X2) = ²(TX1+TX2) / ²(X1+X2) = 4 ²(TX1) / 2 ²(X1) · [1+Rel(X1)] = 2 Rel(X1) / [1+Rel(X1)] Rel(X1+X2+... +Xn) = n Rel(X1) / [1+(n–1)·Rel(X1)] (Spearman-Brown)

Reliabilität der Differenz Ein Test X bestehe aus zwei Parallelformen X1 und X2. ²(X1–X2) = ... = 2 ²(X1) – 2 ²(TX1) = 2 ²(X1) · [1–Rel(X1)] Rel(X1–X2) = ²(TX1–X2) / ²(X1–X2) = ²(TX1–TX2) / ²(X1–X2) =

Differenz vorher/nachher Ein Test X bestehe aus zwei Parallelformen X1 und X2. Sie sind nur dann parallel, wenn sie unter vergleichbaren Bedingungen erhoben werden. Im Rahmen einer Interventionsstudie wird Testform X1 vor und Testform X2 nach einer Intervention erhoben. Die Messung nach der Intervention ist nicht mehr parallel zu der Messung vor der Intervention. Sie wird durch eine eigene Zufallsvariable Y beschrieben: X1 = TX1 + EX1, Y = TY + EY Annahmen: Die Intervention ändert nichts an der Streuung: ²(Y) = ²(X1) = ²(X2) Der Mittelwert ändert sich: TY = TX2 + TD

Differenz vorher/nachher X1 = TX1 + EX1, Y = TX2 + TD + EY = TX1 + TD + EY D = Y – X1 = TD + EY – EX1 ²(D) = ... = 2 ²(X1) · [1–(X1,Y)] [Rel(X1)+Rel(Y)]/2 – (X1,Y) Rel(D) = ... = ––––––––––––––––––––––––– 1 – (X1,Y) Eine hohe Korrelation von Vor- und Nachtest ergibt eine niedrige Reliabilität der Differenz. Der Interventionserfolg E (D) ist dann zwar gut meßbar, aber der Personenparameter TD eignet sich nicht zur Vorhersage. Bei niedriger Vor/Nachtestkorrelation könnte TD valide sein, z.B. eine individuelle Prognose über den Erfolg einer weiteren Intervention vorhersagen.

Einzelne Testaufgaben Die klassische Testtheorie behandelt Tests, nicht Testaufgaben. Die statistischen Parameter einzelner Testaufgaben sind daher nur Hilfsmittel. Eine korrekte Behandlung von einzelnen Testaufgaben erfolgt erst in der logistischen Testtheorie. Ein Test X bestehe aus n Aufgaben. Die Zufallsvariablen Uj, j=1...n bezeichnen den Ausgang einer einzelnen Testaufgabe, mit uj = 1 bedeutet „richtig“, bzw. „mehr des Merkmals“ uj = 0 bedeutet „falsch“, bzw. „weniger des Merkmals“

Die Schwierigkeitsstatistik Schwierigkeitsstatistik: j = E (Uj) Schätzwerte für j abhängig von Stichprobe X = j=1...n Uj E (X) = j=1...n j Ratekorrektur: fiktive Wahrscheinlichkeit pj „Person "weiß" die Antwort“ Ratewahrscheinlichkeit 1/a P(Uj=1) = j = pj + (1 – pj) · 1/a pj = (j – 1/a) / (1 – 1/a) = (a j – 1) / (a – 1) a: ???

Die Trennschärfestatistik Zufallsvariable Uj Wertebereich: Uj() = {0,1} Erwartungswert: E (Uj) = j Varianz: (Uj,Uj) = ??? Bei welchen j ist die Varianz maximal? Testwert X = j=1...nUj (X,X) = (j=1...nUj,j=1...nUj) = j=1...nj'=1...n(Uj,Uj') = j=1...nj'=1...n(Uj) (Uj') (Uj,Uj')

Die Trennschärfestatistik Testwert X = j=1...nUj (X,X) = (j=1...nUj,j=1...nUj) = j=1...nj'=1...n(Uj,Uj') = j=1...nj'=1...n(Uj) (Uj') (Uj,Uj') (X,X) = (j=1...nUj,X) = j=1...n(Uj,X) = j=1...n(Uj) (X) (Uj,X) (X) = j=1...n(Uj) (Uj,X) (Uj,X) = Trennschärfestatistik (Uj,X) = (Uj,j=1...nUj) = (kleiner Fehler in Irtel, Gl. 2.50)

Aufgabenvaliditätsstatistik Testwert X = j=1...nUj (X,Y) = (j=1...nUj,Y) = (kleiner Fehler in Irtel, Gl. 2.51) j=1...n(Uj,Y) = j=1...n(Uj) (Y) (Uj,Y) (Uj,Y) = Aufgabenvaliditätsstatistik (X,Y) = (X,Y) / [(X) (Y)] = j=1...n(Uj) (Uj,Y) / j=1...n(Uj) (Uj,X)

Wann ist ein Test ein Test? Ein System psychometrischer Daten <,S,P,{Xk|k=1...n},H> mit n2 ist ein psychometrischer Test mit linearer Struktur, wenn mindestens zwei der Beobachtungswerte Xk parallel sind. Erwartungswerte und Varianzen in Teilpopulationen Korrelationen mit externem Kriterium n3: Interkorrelationen

Stärke und Schwäche der klassischen Testtheorie Die klassische Testtheorie mißt nicht eine Eigenschaft der Person (unabhängig vom Meßverfahren). Die klassische Testtheorie mißt die Fähigkeit, den Test zu lösen. Der Bezug vom Beobachtungswert X zur Eigenschaft mag nichtlinear sein. Der Beobachtungswert X ist für sich betrachtet intervallskaliert.