Übung zur Vorlesung Theorien Psychometrischer Tests I

Slides:



Advertisements
Ähnliche Präsentationen
Christian Schindelhauer
Advertisements

Struktur-Funktions-Modelle von Pflanzen - Sommersemester Winfried Kurth Universität Göttingen, Lehrstuhl Computergrafik und Ökologische Informatik.
Software-Engineering II Eingebettete Systeme, Softwarequalität, Projektmanagement Prof. Dr. Holger Schlingloff Institut für Informatik der Humboldt.
Arbeiten mit Mittelwert- und Kovarianzstrukturmodellen
Marco Barz Seminar über Algorithmen SoSe2007
Grammatiken, Definitionen
Theorie psychometrischer Tests, III
Regression und Korrelation
ARCH- und GARCH Modelle
Gliederung Allgemeine Arten von Zusammenhängen Kovarianzen
Klassische Testtheorie
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Das Allgemeine lineare Modell (ALM) - Varianz als Schlüsselkonzept
Universität zu Köln Historisch-Kulturwissenschaftliche Informationsverarbeitung Kapitel 12: „Variablen und Konstanten verwenden und Spiele.
Berechnen Sie den Output Vektor wenn der Input Vektor (1,1,-1,-1) ist.
Übung zur Vorlesung Theorien Psychometrischer Tests I
K. Desch - Statistik und Datenanalyse SS05
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
F FnFn z Prof. Dr. Johann Graf Lambsdorff Universität Passau SS a. Anhang zur Bestimmung der optimalen Taylor-Regel.
Die Vorlesung Statistische Methoden II findet am (nächste Woche) wegen der Projektwoche nicht wegen der Projektwoche nicht statt.
Tutorium
Tutorium
Tutorium
Unser letztes Tutorium Output – das Modell gut11 gut12 gut21 gut22 gut31 gut32 state1 state2 state3 XI MF
Unser schönstes Tutorium Materialien unter:
Rechneraufbau & Rechnerstrukturen, Folie 12.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 12.
Wiederholung und Beispiele
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Einfache Regressionsgleichung
Kapitel 15 Instrumentvariablen- Schätzung
Bestimmung der Regressionsgewichte in der multiplen Regression
Ausgleichungsrechnung I
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Solid State Physics Fundamentals
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Graphen Kombinatorik, Zufall, Algorithmen
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Vorbesprechung Serie 9 Ax(ExR(x) Q(x)) wird identifiziert mit Ax(EzR(z) Q(x)) Skript S.101 & 102: ~AxP(x) Ex~P(x) ~ExP(x) Ax~P(x) Ax(P(x)/\Q(x)) AxP(x)
Statistik: Mehr zur Regression.
Kapitel 15 Instrumentvariablen- Schätzung
Kapitel 18 Dynamische Modelle: Schätzen der Parameter
Kapitel 18 Dynamische Modelle: Schätzen der Parameter.
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Silvia Schlagnitweit Betreuer: a. Univ.-Prof. Dr. Franz Hackl
PHP Basic.
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Theorie psychometrischer Tests, II
Übung zur Vorlesung Theorien Psychometrischer Tests I
Quelle: xkcd.com SQL Injections.
Testtheorie (Vorlesung 6: ) Zusammenfassung: Matrizen
Testtheorie (Vorlesung 7: ) Rekapitulation: Modellierungsansatz
Wiederholung/Zusammenfassung
Wiederholung/Zusammenfassung
Testtheorie (Vorlesung 4: ) Wiederholung/Zusammenfassung
Testtheorie (Vorlesung 5: ) Wiederholung/Zusammenfassung  Reduktion von Gleichungen:
K. Desch - Statistik und Datenanalyse SS05 1 Zusammenfassung 2. Vorlesung (22.4.) Schiefe (Skewness): Maß für die Asymmetrie der Verteilung um den Mittelwert.
Übung zur Vorlesung Theorien Psychometrischer Tests I
Übung zur Vorlesung Theorien Psychometrischer Tests I Ulf Kröhne Norman Rose Session 6.
1 Analyse konstruierter Daten … mit EffectLite Ref.: Marie Grahl, Victoria Paul, Katja Peilke.
K. Desch - Statistik und Datenanalyse SS05
Übung zur Vorlesung Theorien Psychometrischer Tests I Ulf Kröhne Norman Rose Session 8.
Übung zur Vorlesung Theorien Psychometrischer Tests I Ulf Kröhne Norman Rose Session 8.
Übung zur Vorlesung Theorien Psychometrischer Tests I
Testtheorie (Vorlesung 11: ) Wiederholung: Reliabilität
Testtheorie (Vorlesung 10: ) Wiederholung: Reliabilität
Übung zur Vorlesung Theorien Psychometrischer Tests I
Übung zur Vorlesung Theorien Psychometrischer Tests I
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Testtheorie (Vorlesung 14: ) Testtheorie allgemein:  Ziele und Inhalte der Testtheorie:  Beurteilung der Eigenschaften von Tests  Speziell: Güte.
Kompetenzniveaus Lernlupe Mathematik
 Präsentation transkript:

Übung zur Vorlesung Theorien Psychometrischer Tests I Ulf Kröhne Norman Rose Session 1/13

Organisatorisches Buch: Messen und Testen http://www.metheval.uni-jena.de/lehre_literatur.php Benutzername: stud_user Passwort: steyer_ss_04 Gruppen: Dienstag 18:15– 19:45 Uhr Freitag 10:15 – 11:45 Uhr

Aufbau der Übungen Fragen zur Vorlesung Übungs-aufgaben Computer- programm Interaktion

Agenda Fragen zur Vorlesung Wiederholung Rechenregeln Pfaddiagramme in Regressionsgleichungen umwandeln Varianzen und Kovarianzen ermitteln Implizierte Varianz-Kovarianzmatrix Aufgaben

Fragen zur Vorlesung Mengenlehre, Potenzmenge, …:U, O, Variablen vs. Wert einer Variablen Definition True-Score Variable: i := E(Yi |U ) Definition Residuum: i := Yi  i Eigenschaften von Residuum und True-Score Varianzzerlegung: Var(Yi) = Var(i) + Var(i) Reliabilität: Rel(Yi) = Var(i) / Var(Yi) Parametrisierung: i = ij0 + ij1j ij0, ij1IR, ij1>0 Wichtig: Was folgt aus der Definition und was sind zusätzliche Annahmen eines Modells!

Wiederholung Rechenregeln .1 Wichtige Definitionen:

Wiederholung Rechenregeln .2 Regel für unbedingte Erwartungswerte: (i) E() =  (ii) E( X +  Y ) =  E(X ) +  E(Y )

Wiederholung Rechenregeln .3 Regel für Varianzen: (i) Var (X ) = E(X 2) – E(X ) 2 (ii) Var (X ) = 0, if X =  (iii) Var ( X ) =  2 Var(X ) (iv) Var ( + X ) = Var (X ) (v) Var ( X +  Y ) = 2 Var (X ) + 2 Var (Y ) + 2   Cov(X, Y )

Wiederholung Rechenregeln .4 Regel für Kovarianzen: (i) Cov ( X, Y ) = E( X  Y ) – E( X )  E( Y ) (ii) Cov ( X, Y ) = 0, if X =  (iii) Cov ( X,  Y ) =   Cov ( X, Y ) (iv) Cov ( + X,  + Y ) = Cov ( X, Y ) (v) Cov(1 X1 + 2 X2, 1 Y1 + 2 Y2) = 1 1 Cov(X1, Y1) + 1 2 Cov(X1, Y2 ) + 2 1 Cov(X2, Y1) + 2 2 Cov(X2, Y2 ))

Wiederholung Rechenregeln .5 Regel für Bedingte Erwartungen (Regressionen): (i) E(  X ) =  (ii) E( Y1 +  Y2 X )  =  E(Y1 X ) +  E(Y2 X ) (iii) E[E(Y  X )]  = E(Y ) (iv) E[f (X)  X ]  = f (X ), if f (X ) is numeric (v) E[E(Y  X )  f (X )] = E[Y  f (X )] (vi) E[f (X )  Y  X ]  = f (X )  E(Y  X ), if f (X ) is numeric

Wiederholung Rechenregeln .6 Eigenschaften des Residuums: (i) E() = 0 (ii) Cov[, E(Y  X )] = 0 (iii) Var(Y ) = Var[E(Y  X )] + Var() (iv) E( X ) = 0 (v) E [ f (X )] = 0 (vi) Cov[, f (X )] = 0, if f (X ) numeric

Heimstudium ;-( ! M&T, Anhang M&T, Kapitel 1 Anhang B  Mengenlehre Anhang C  Karthesisches Produkt Box F.1  E( X ), Var( X ), Cov( X, Y ) Box G.1  E( Y | X) M&T, Kapitel 1 - Beschreibt Ziel und Anliegen der Vorlesung Aktuelle Vorlesung: M&T Kapitel 9

Üben Pfaddiagramme Prinzip: 1. Schritt: Pfaddiagramm in Regressions-gleichungen zerlegen 2. Schritt: Varianz der Regressions- gleichung bestimmen 3. Schritt: Kovarianzen der Regressions- gleichungen bestimmen Häufig: Namen der Parameter Programmen zur Analyse (LISREL oder Mplus) einsetzen Als Matrix aufschreiben.

Pfaddiagramm e1 Y1 e2 Y2 h e3 Y3

Pfaddiagramm + i := E(Yi |U ) i := Yi  i 1 1 e1 Y1 t1 1 1 e2 Y2 t2 h 1 1 t3 e3 Y3 i := E(Yi |U ) i := Yi  i

Pfaddiagramm ++ 11 21 31 i = ij0 + ij1j i = i0 + i1  e1 Y1 t1 11 e2 Y2 t2 h 21 31 t3 e3 Y3 i = ij0 + ij1j i = i0 + i1 

Pfaddiagramm! 1 e1 Y1 11 1 e2 Y2 h 21 31 1 e3 Y3

Pfaddiagramm! Y1 = 11  + 1 Y2 = 21  + 2 Y3 = 31  + 3 1. Schritt: Pfaddiagramm in Regressionsgleichungen zerlegen Y1 = 11  + 1 Y2 = 21  + 2 Y3 = 31  + 3

Pfaddiagramm! Var(Y1) = Var(11  + 1) = Var(11  )+Var (1) 2. Schritt: Varianz der Regressionsgleichung bestimmen Var(Y1) = Var(11  + 1) = Var(11  )+Var (1) = 112 Var( )+Var (1) Var(Y2) = …

Pfaddiagramm! Cov(Y1, Y2) = Cov(11 + 1, 21  + 2) 3. Schritt: Kovarianzen der Regressionsgleichungen bestimmen Cov(Y1, Y2) = Cov(11 + 1, 21  + 2) = 11 21 Cov( , ) + 11Cov( , 2) + 21Cov(1, ) + Cov(1, 2) = 11 21 Var() + Cov(1, 2) = 11 21 Var()

Pfaddiagramm! Var(1)  2 Var()  2 … Optional: Ersetzen mit Parametern… Var(1)  2 Var()  2 …

Pfaddiagramm! Y1 Var(Y1 ) Y2 Cov(Y1, Y2) Var(Y2 ) Y3 Cov(Y1,Y3) Aufschreiben in Matrizenform: Y1 Var(Y1 ) Y2 Cov(Y1, Y2) Var(Y2 ) Y3 Cov(Y1,Y3) Cov(Y2,Y3) Var(Y3 ) Y1 Y2 Y3

Pfaddiagramm! 112 Var( )+Var (1) 11 21 Var() Aufschreiben in Matrizenform: 112 Var( )+Var (1) 11 21 Var() 212 Var( )+Var (2) 11 31 Var() 21 31 Var() 312 Var( )+Var (3)

Üben (a) e1 Y1 11=1 h e2 Y2 21=1 31=1 e3 Y3

Üben (b) e1 Y1 11=1 h e2 Y2 21=1 31=1 e3 Y3 Var(ε1) = Var(ε2) = Var(ε3)

Üben (c) e1 Y1 11 h e2 Y2 21= 11 31= 11 e3 Y3 Var(η) = 1

Üben (d) e1 Y1 11 h e2 Y2 21= 11 31=1 e3 Y3

Aufgaben 1. Leiten Sie die vom Modell implizierte Varianz-Kovarianzmatrix für ein Modell paralleler Tests mit 4 Indikatoren her. 2. Bilden Sie die Potenzmenge zu A = {p, q, r}. 3. Zeigen Sie, dass Cov(i, j) = Cov(Yi, j) gilt. 4. Zeigen Sie, dass Kor(Yi , i)2 = Rel(Yi) gilt.

(7.7%)