Einführung in Statistik und SPSS LVA Human Factors (SS 04) 23.03.2004 Mag. Katharina Mallich
Einführung in Statistik und SPSS Grundlegendes SPSS: Statistical Package for the Social Sciences Programm zur statistischen Datenanalyse hier verwendet: SPSS 10 (deutsch) Einloggen an den Uni-PCs (z.B. im NIG) Berechnungen auch im Excel möglich Literatur: Ponocny-Seliger, E. & Ponocny, I. (2001). Statistik for You. Skriptum erhältlich im NIG-Shop. Bühl, A. & Zöfel, P. (2000). SPSS. Einführung in die moderne Datenanalyse unter Windows. München: Addison-Wesley. 23.03.2004 Einführung in Statistik und SPSS
Anlegen eines Datenfiles Leere Datenmaske: Spalten (= Variablen) und Zeilen (= Untersuchungspersonen) 23.03.2004 Einführung in Statistik und SPSS
Anlegen eines Datenfiles für jede Variable muss ein Name und ein Typ definiert werden Name: Doppelklicken auf „var“ (man gelangt zur Variablenansicht) und unter Name den Variablennamen eingeben, z.B. „fb_nr“ (max. 8 Zeichen, keine Sonderzeichen) Typ: handelt es sich um Zahlen („numerisch“), Wörter („string“) oder anderes? 23.03.2004 Einführung in Statistik und SPSS
Datenmaske: Variablenansicht 23.03.2004 Einführung in Statistik und SPSS
Datenmaske: Variablenansicht Wertelabels: z.B. Schulbildung Variablenlabel: Benennung der Variablen, z.B. Name „fb_nr“ Variablenlabel „Fragebogennummer“ Dezimalstellen, Spaltenformat, ... Daten eingeben (z.B. auf einer Skala von 1 bis 5) 23.03.2004 Einführung in Statistik und SPSS
Datenmaske: Datenansicht Gruppe: z.B. 1 = Nutzung von sms 2 = keine Nutzung von sms 23.03.2004 Einführung in Statistik und SPSS
Einführung in Statistik und SPSS Speichern Datenfile speichern unter „Datei“ „Speichern unter“: daten.sav Berechungen speichern unter: output01.spo Syntax wird gespeichert unter: syntax01.sps 23.03.2004 Einführung in Statistik und SPSS
Erste Berechnungen und Hinweise Datenmodifikation: Berechnen einer neuen Variable z.B. Mittelwert einer Skala SPSS: unter „Transformieren“ „Berechnen“ anklicken, neue Zielvariable benennen, s.u. Umkodieren von Variablen: SPSS: „Trans- formieren“ „Umkodieren“ „in andere Variablen“ 23.03.2004 Einführung in Statistik und SPSS
Einführung in Statistik und SPSS Datenansicht 23.03.2004 Einführung in Statistik und SPSS
Erste Berechnungen und Hinweise Datenselektion: Fälle auswählen wenn z.B. Unterschiede in der „Performance“ der Gesamtstichprobe auftreten und man wissen will, ob die Unterschiede auch „nur“ in der männlichen oder weiblichen Stichprobe vorhanden sind. SPSS: „Daten“ „Fälle auswählen“ „Falls Bedingung zutrifft“ „Falls“ ... „weiter“ „ok“ 23.03.2004 Einführung in Statistik und SPSS
Erste Berechnungen und Hinweise Datenselektion: Fälle auswählen Ausgewählt wurde „Geschlecht (sex) = 1 (männlich). Nun erfolgen sämtliche Berechnungen nur für die Männer. Will man wieder mit der Gesamtstichprobe rechnen: SPSS: „Daten“ „Fälle auswählen“ „Alle Fälle“ „ok“ 23.03.2004 Einführung in Statistik und SPSS
Voraussetzungen f. d. Anwendung statistischer Tests Skalenniveau Nominalskala: bestehenden Namen werden Messwerte zugeordnet, keine Rangfolge, nicht vergleichbar, z.B. Geschlecht (männlich = 1, weiblich = 2), Schulbildung, ... Ordinal-/ Rangskala: Information über eine Rangordnung ist gegeben, d.h. je größer ein Wert desto ausgeprägter die Eigenschaft, z.B. Rauchverhalten (1 = Nicht-Raucher, 2 = mäßiger Raucher, 3 = starker Raucher), Windstärke, ... Intervallskala: neben Ranginformation auch Informationen über Messwertdifferenzen, gleiche numerische Differenzen bedeuten gleiche inhaltliche Differenzen, z.B. Reaktionszeiten, Testscores, Temperatur, ... Verhältnisskala: die Messwerte erlauben Verhältnisangaben (A ist doppelt so groß wie B), z.B. Längenangaben, Gewicht, ... 23.03.2004 Einführung in Statistik und SPSS
Einführung in Statistik und SPSS Voraussetzungen f. d. Anwendung statistischer Tests Normalverteilung (bei intervallskalierten Variablen): macht Aussagen über die Verteilung der Messwerte, z.B. symmetrisch, links-, rechtsschief, bimodal, etc. SPSS: „Grafiken“ „Histogramm“ „Normalverteilungskurve“ bzw. Kolmogorov-Smirnof-Test: „Analysieren“ „Nichtparametrische Tests“ „K-S bei einer Stichprobe“ Testverteilung „normal“. Ergebnis: Asymptotische Signifikanz (2-seitig) muss > .05 sein. 23.03.2004 Einführung in Statistik und SPSS
Einführung in Statistik und SPSS Voraussetzungen f. d. Anwendung statistischer Tests Abhängigkeit bzw. Unabhängigkeit von Stichproben: abhängig (gepaart): wenn jedem Wert der einen Stichprobe eindeutig und sinnvoll ein Wert einer anderen Stichprobe zugeordnet werden kann, z.B. Messung zu mehreren Zeitpunkten (Computerkenntnisse vor und nach einer Schulung) unabhängig: wenn keine Zuordnungen möglich sind, z.B. einmalige Testung mehrerer Versuchspersonen (Vp) 23.03.2004 Einführung in Statistik und SPSS
Übersicht über gängige Mittelwertstests Intervallskalierte, normalverteilte Variablen Ordinalskalierte oder nicht normalverteilte intervallskalierte Variablen Anzahl d. Stichpr. Abhängigkeit (parametrischer) Test 2 unabhängig t-Test abhängig t-Test für abhängige Stichproben > 2 einfache Varianzanalyse einfache Varianzanalyse mit Messwiederholungen Anzahl d. Stichpr. Abhängigkeit (nicht parametrischer) Test 2 unabhängig U-Test (Man-Whitney) abhängig Wilkoxon-Test > 2 H-Test (Kruskal-Wallis) Friedman-Test 23.03.2004 Einführung in Statistik und SPSS
Deskriptivstatistiken dienen der beschreibenden Darstellung der Variablen z.B. Häufigkeitstabellen, statische Kennwerte (M, SD, ...), grafische Darstellungen, Kreuztabellen (bei > 2 Variablen) SPSS: „Analysieren“ „Deskriptive Statistiken“ „Häufigkeiten“: ... 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik Signifikanztests: dienen der Untersuchung, ob signifikante Unterschiede zwischen 2 Stichproben/ Gruppen/Messzeit-punkten/ etc. bestehen. Wann ist ein Unterschied signifikant? Wenn die Irrtumswahrscheinlichkeit p ≤ .05 ist. p > .05 nicht signifikant p ≤ .05 signifikant p ≤ .01 hoch signifikant p ≤ .001 höchst signifikant Hypothesen können ein- oder zweiseitig formuliert sein: einseitig: Junge Vpn erreichen eine höhere Performance als ältere. zweiseitig: Es bestehen Unterschiede in der Performance zwischen jungen und alten Vpn. 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche VARIANZANALYSEN: einfaktoriell: eine uV, mehrere aVs univariat: mehrere uVs, eine aV multivariat: mehrere uVs, mehrere aVs mit Messwiederholungen: mehrere Messzeitpunkte ... Übungsbeispiel - Univariate Varianzanalyse: Untersucht wird der Einfluss von Alter (uV) und Geschlecht (uV) auf den Ausgangswert M1 eines Merkfähigkeitstests (aV). SPSS: „Analysieren“ „Allgemeines Lineares Modell“ „Univariat“ 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche M1 eintragen als abhängige Variable, Alter und Geschlecht als uVs (Faktoren). Unter „Optionen“: 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Nach dem Start der Berechnungen erscheint der Output. hier: Deskriptives. 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Output: Prüfung auf Signifikanz Ergebnis: Es besteht ein höchst signifikanter Einfluss des Alters auf die Merkleistung: F2,21 = 29.80, p ≤ .001. Keinen Effekt üben Geschlecht F1,21 = .10, p = .76 und die Wechsel- wirkung Alter * Geschlecht F2,21 = .51, p = .61 auf M1 aus. 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Die „geschätzten Randmittel“ helfen bei der Interpretation! Geschlecht: keine nennenswerten Mittel- wertunterschiede, da ja nicht signifikant. Alter: Je älter die Probanden sind, desto geringer ihre Werte bei der Merkfähigkeit. Besonders wenig Punkte erreichten die über 50-Jährigen. Das Alter spielt somit eine entscheidende Rolle bei der Merkfähigkeit! 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Übungsbeispiel - univariate ANOVA mit Messwiederholungen: Untersucht wird, ob im Laufe von 4 Testzeitpunkten (uV, MH-Faktoren) Veränderungen im Merkfähigkeitstest (aV) auftreten. SPSS: „Analysieren“ „Allgemeines Lineares Modell“ „Messwiederholungen“. Es erscheint ein Fenster, in dem man die Faktoren definieren kann: „hinzufügen“ 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Die 4 MW-Variablen ins Feld „Innersubjektfaktoren“ klicken, Alter und Geschlecht zu den Zwischensubjektfaktoren (uVs). 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Unter „Optionen“: Es können auch Post-Hoc- Tests (z.B. Bonferroni) durchgeführt werden. danach: Starten der Berechnungen 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Output: Deskriptive Statistiken (wie bei univariater ANOVA) sowie für alle Messzeitpunkte getrennt nach Alter und Geschlecht: Signifikanzprüfung: siehe „multivariate Tests“ (nächste Folie) 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Ergebnis: Pillai Spur betrachten Der Faktor ZEIT hat einen höchst signifikanten Einfluss auf die Merkfähigkeit (F3,19 = 133.37, p ≤ .001). Wechselwirkungen der ZEIT mit Alter (F6,40 = 1.15, p = .36) oder Geschlecht der Vpn (F3,19 = .75, p = .54) bestehen keine. Die „Tests der Zwischensubjekt- effekte“ zeigen mögliche Haupteffekte auf (hier: wie vorhin das Alter). 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Mittelwertvergleiche Die „geschätzten Randmittel“ verdeutlichen einen Anstieg der Merkfähigkeit zu jedem der 4 Testzeitpunkte. Die besten Ergebnisse werden beim 4. Zeitpunkt erreicht. Möglicherweise findet eine Schulung statt, auf welche diese Unterschiede zurück- zuführen sind. 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Zusammenhänge Neben Mittelwertsvergleichen können auch Zusammen-hänge untersucht werden. Korrelationen: z.B. Besteht ein Zusammenhang zwischen der PC-Nutzung und Rückenschmerzen? SPSS: „Analysieren“ „Korrelation“ „Bivariat“ Die Stärke eines Zusammenhang sagt aber nichts über die Kausalität aus!! Regressionsanalyse: soll die Art eines Zusammenhang aufdecken, es soll eine aV aus den Werten einer/ mehrerer uVs vorhergesagt werden SPSS: „Analysieren“ „Regression“ „Linear“ 23.03.2004 Einführung in Statistik und SPSS
Analytische Statistik - Hinweis Bei t-Tests und Regressionsanalysen heißen die Prüfgrößen „t“ (nicht „F“ wie bei den ANOVAs). Auch hierbei muss wieder geschaut werden, ob „t“ signifikant ist („Sig.“ oder „Signifikanz“). Neben den bisherigen Analysen gibt es noch eine Menge weiterer komplexer statistischer Verfahren wie Diskriminanz-, Faktoren- oder Clusteranalysen und verschiedene Zusatzmodule. Viel Erfolg bei Euren Auswertungen !!! 23.03.2004 Einführung in Statistik und SPSS