Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Methodische Grundlagen

Ähnliche Präsentationen


Präsentation zum Thema: "Methodische Grundlagen"—  Präsentation transkript:

1 Methodische Grundlagen
Die Hypothesenbildung Eine Hypothese ist eine präzise Annahme über den Zusammenhang von genau definierten Variablen Der Zusammenhang von Hypothese und Theorie Die Theoriebildung ist das Ordnen mehrfach empirisch überprüfter Erkenntnisse in ein System, das in sich widerspruchsfrei ist. Deduktives-, induktives Vorgehen Die Hypothesenformen Probabilistische Hypothesen sind Annahmen über Wahrscheinlichkeiten, mit denen ein Sachverhalt unter bestimmten Bedingungen eintritt. Deterministische Hypothesen postulieren, dass ein Sachverhalt ganz sicher eintritt, wenn bestimmte Bedingungen gegeben sind. Eine Verifikation von Hypothesen ist ausgeschlossen; eine Falsifikation hingegen nicht (Karl Popper ) Null- und Alternativhypothesen Prinzip der Falsifikation findet in der Formulierung einer Nullhypothese Anwendung; die Nullhypothese (HO) bestreitet das Vorliegen eines Effekts, der mit der Hypothese (Hl) angenommen wird. Wenn sich die Nullhypothese in einer Untersuchung als falsch erweist, kann die Alternativhypothese zunächst angenommen werden.

2 Die Operationalisierung
Die Psychologie befasst sich mit dem menschlichen Erleben und Verhalten und muss dementsprechend mit Themen umgehen, die nur schwer fassbar sind (z. B. Emotionen, Denken). Operationalisierung bezeichnet den Vorgang, nicht direkt beobachtbare Phänomene für die Beobachtung und Messung zugänglich zu machen. Beurteilungsskalen (Ratingskalen) Häufigkeiten, Intensitäten oder die Zustimmung. Einige Skalierungsmethoden (Likert-,Thurstone-Skala, etc) absolute Beurteilungsskalen, da ein Merkmal direkt eingeschätzt wird. Bei relativen Beurteilungsskalen muss ein Vergleich angestellt werden. Soziometrie (Moreno, 1934) ist eine Methode, um Gruppenstrukturen und Beziehungen zwischen den Gruppenmitgliedern (z. B. Sympathie oder Ablehnung) zu erfassen. Die ermittelten Gruppenstrukturen können graphisch in Form eines Soziogramms dargestellt werden.

3 Die Untersuchungskriterien
Unter einem psychologischen Test wird ein Verfahren verstanden, mit dem quantitative Aussagen über den Ausprägungsgrad individueller Merkmale (Leistungs- oder Persönlichkeitsmerkmale) gemacht werden können. Auswahl von Items (=einzelne Testaufgaben) Itemselektion- Schwierigkeits­index, Trennschärfekoeffizient Testnormierung- ist die Eichung eines Tests an einer repräsentativen Stichprobe Normskalen –Äquivalenz- und Abweichungsnormen Normalverteilung, z-transformierung, (standardisierung), Standardnormalverteilung-Prozentränge

4 Testgütekriterien Objektivität meint die Unabhängigkeit des Tests von der Person des Testleiters. Korrelationskoeffizient Reliabilität oder Zuverlässigkeit meint die Messgenauigkeit eines Tests Retest-Reliabilität , Paralleltest-Reliabilität , Konsistenzanalyse Standardmessfehler (SM), Konfidenzintervall (Vertrauensintervall) Validität (Gültigkeit) gibt an, ob der Test das Merkmal, das er zu messen vorgibt, auch tatsächlich misst. Übereinstimmungs-, Vorhersage-, Konstrukt-, Inhalts- interne und externe Validität Die Testgüte­kriterien sind voneinander abhängig Sensitivität ist die Wahrscheinlichkeit, mit der ein bestehender positiver Zustand auch tatsächlich erkannt wird. Spezifität ist die Wahrscheinlichkeit, mit der ein bestehender negativer Zustand erkannt wird. Der positive- negative Prädiktionswert meint die Wahrscheinlichkeit, mit der eine positive Diagnose zutreffend oder nicht zutreffend ist.

5

6 Die Untersuchungsplanung
Die Arten von Untersuchungen Das Experiment- ist die Methode um Ursache-Wirkungs-Beziehungen aufzudecken Unabhängige-, abhängige Variablen Experimentalgruppe-, Kontrollgruppe Die wichtigsten Kennzeichen eines Experiments Willkürlichkeit (oder Planmäßigkeit) meint, dass der Versuchsleiter die Bedingungen, die zur Veränderung der abhängigen Variablen führen, jederzeit willkürlich herstellen kann. Wiederholbarkeit oder Replizierbarkeit Variierbarkeit- Die unabhängige Variable muss vom Versuchsleiter frei variierbar sein. Die Begriffe „ein"-, „zwei"- oder „mehrfaktoriell" geben die Anzahl der unabhängigen Variablen (Faktoren) in einem Versuchsdesign an. Quasiexperiment Standardisierung -„Rosenthal-Effekt" -Doppelblindstudie „Hawthorne-Effekt" –Randomisieren- Reihenfolgeneffekte Feldstudie, Längsschnitt-, Querschnittstudie

7 Die Untersuchungsplanung
Die Kohortenstudie -prospektive -, retrospektive Die Fall-Kontroll-Studie- relatives und absolutes Risiko Die Einzelfallstudie Die Evaluationsstudie-die bisher geschilderten Untersuchungen auf einer Metaebene anzusiedeln: sie dient der Bewertung bereits vorhandener Informationen Die Stichproben -Repräsentativität Zufallsstichprobe –Klumpenstichprobe- Quotenstichprobe

8

9 Die Methoden der Datengewinnung
Einige Methoden der Datengewinnung: Verhaltensbeobachtung –systematische, unsystematische-,teilnehmende-,nicht-teilnehmende-, offene und verdeckte Beobachtung Interview -standardisiertes und unstandardisiertes Interview -,quantitatives - qualitatives Interview Die Arten von Fragen-geschlossene-, dichotome -, Katalog-, offene-, Suggestivfragen Leistungs- und Persönlichkeitstests Leistungstests -beinhalten Aufgaben, die objektiv als richtig oder falsch beurteilt werden können. –Intelligenztests,(HAWIE-R (Hamburg-Wechsler-Intelligenztest) IST 2000 (Intelligenz-Struktur-Test 2000) Persönlichkeitstests -messen überdauernde Merkmale von Personen.-FPI-R, Freiburger-Persönlichkeits-Inventar 16 PF, 16-Persönlichkeits-Faktoren-Test , MMPI (Minnesota-Multiphasic-Personality-Inventory) Fehlerquellen von Persönlichkeitstests- sozial erwünscht zu antworten -Tendenz zur Mitte-simulieren -dissimulieren Die projektiven Tests machen sich nun den Abwehrmechanismus der Projektion zunutze -das Formdeuteverfahren von Rorschach , Thematische Auffassungs-Test (TAT ) Selbst-, Fremdbeurteilung

10 Die Datenauswertung Die quantitativen Auswertungsverfahren
Deskriptive Statistik meint die geordnete Darstellung von Daten und deren Zusammenfassung zu statistischen Kennwerten –Häufigkeitsverteilung-Mittelwert und Standardabweichung Interferenzstatistik Die statistische Bedeutsamkeit bezeichnet man als statistische Signifikanz. signifikant (P<.05)- sehr signifikant (P<.01)- höchst signifikant (P<.001) Der Alpha- und der Betafehler Ein Alpha-Fehler besteht, wenn die Hypothese einer Untersuchung angenommen wird, obwohl die Nullhypothese zutrifft. Der Beta-Fehler meint das fälschliche Verwerfen der Hypothese zugunsten der Nullhypothese. Tests auf Mittelwertsunterschiede T-Test ,-Varianzanalyse Tests zur Überprüfung von Zusammenhängen Chi-Quadrat-Test,- Regressionsanalysen,-Korrelationsanalyse Die qualitativen Auswertungsverfahren Inhaltsanalyse,-Tiefeninterview,-Soziometrie Dokumentenanalyse,- Gruppendiskussion

11

12

13

14

15 Die Ergebnisbewertung
Um aus den Befunden wissenschaftlicher Untersuchungen weitreichendere Schlüsse zu ziehen, müssen diese wiederholt gezeigt werden können und generalisierbar sein. Replizierbarkeit und Generalisierbarkeit In einem allgemeineren Sinne bezieht sich die Replizierbarkeit auf die Ergebnisse Diese Gesetzmäßigkeiten sollen häufig nicht nur für die spezifische Untersuchungssituation gelten, sondern auf andere Probandengruppen und Situationen übertragen werden können (Generalisierbarkeit). Die Nutzung wissenschaftlicher Erkenntnisse Die evidenzbasierte Medizin (EBM) zielt darauf ab, stärker als bisher die klinisch praktische Erfahrung (Expertise) um klinisch relevante Forschung (Evidenz) zu ergänzen, um Entscheidungen in der medizinischen Versorgung zu optimieren. Effizienz -Ethische Bedenken bestehen, wenn mit dem Begriff der Effizienz einzig und allein das Verhältnis von Kosten (Geld, Zeit) und Nutzen gemeint ist . Ist die EBM eine Restriktion der Handlungsmöglichkeiten im ärztlichen Alltag oder ein nützliches Hilfsmittel?

16 Die Intelligenz eine allgemeine geistige Anpassungsfähigkeit an neue Aufgaben und Lebensbedingungen (Stern 1911)-ein hypothetisches Konstrukt Flexibilität des Denkens, -verbale und rechnerische Fähigkeiten und Fähigkeiten des Problemlösens (logisches Denken) Grundsätzlich werden verbale und rechnerische Fähigkeiten und Fähigkeiten des Problemlösens (logisches Denken) als Komponenten der Intelligenz bezeichnet. Kreativität ist nach dieser Definition keine Komponente der Intelligenz Test-Intelligenz Der klassische Intelligenzquotient (Binet 1905) Intelligenzalter (IA)/ Lebensalter (LA) des Kindes Stern: IQ = IA/LA • 100 Der Abweichungs-IQ (Wechsler 1944) der Wert eines Probanden im Intelligenztest wird mit dem auf 100 Punkte normierten Mittelwert seiner Altersgruppe verglichen relative Position, Referenzgruppe Die Werte zweier Probanden, für die ein Abweichungs-IQ bestimmt wurde, lassen sich nur vergleichen, wenn sie auf dieselbe Referenzgruppe bezogen sind.

17 Die Theorien und die Modelle der Intelligenz
Das Zwei-Faktoren-Modell von Spearman Allgemeine- und spezifische Intelligenzleistung Generalfaktor (g-Faktor)-, spezifische Intelligenzfaktoren (s-Faktoren) Mehrfaktorentheorie der Intelligenz (Thurstone) sieben Primärfaktoren: Rechenfähigkeit, Sprachverständnis,Wortflüssigkeit, räumliche Vorstellung, Gedächtnis, logisches Denken, Wahrnehmungsgeschwindigkeit Modell der fluiden und kristallinen Intelligenz (Catell) fluide Intelligenz (kulturunabhängig), kristalline Intelligenz (kulturabhängig) Die Intelligenztests HAWIE/HAWIK (Hamburg Wechsler Intelligenztest) Verbal-IQ und ein Handlungs-IQ wird berechnet, deren Mittelwert den Gesamt-IQ ergibt IST (Intelligenz-Struktur-Test) verbales, figurales und numerisches Unterteil prognostische Validität - positiven Auswirkungen von lebenslangem Lernen die fluide Intelligenz nimmt ab dem 60. Lebensjahr ab, die kristalline Intelligenz bleibt bis ins hohe Alter stabil Korsakow-Syndrom

18


Herunterladen ppt "Methodische Grundlagen"

Ähnliche Präsentationen


Google-Anzeigen