Disziplinorientierte versus praxisorientierte Sozialforschung

Slides:



Advertisements
Ähnliche Präsentationen
Dauermagnete Bei magnetischen Materialien unterscheidet man Eisenkerne bzw. Weicheisenstücke und Dauermagnete bzw. Hart-magnetische Materialien. Dauermagnete.
Advertisements

TAGUNG DER DEUTSCH-LUSITANISCHEN JURISTENVEREINIGUNG O processo penal português Panorâmica introdutória Der portugiesische Strafprozess ein einführender.
Ach wie gut, daß niemand weiß Der Schutz von Wissen
Herzlich Willkommen bei SIMPLE STABLE BULDING
Adjektivendungen Tabellen und Übungen.
ZWILLING Neuheiten 2008.
Das Hexenkochbuch Nicht Rattenschwänze, Spinnenbein
 Präsentation transkript:

Disziplinorientierte versus praxisorientierte Sozialforschung 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Grundlegende „VOKABELN“: Erkenntnistheorie: Grundlegende Annahmen (Axiome) über die Möglichkeit menschlicher Erkenntnis (z.B. Konstruktivismus, Realismus, Idealismus) Wissenschaftstheorie: Die Erkenntnislogik einer spezifischen Wissenschafts“schule“ und deren Argumentationsstrategie, mit der die wissenschaftliche Geltung ihrer Aussagen geprüft und begründet wird (z.B. Positivismus, Kritischer Rationalismus, Phänomenologie, Symbolischer Interaktionismus) Substanztheorie (z.B. „soziologische Theorie“): System von Hypothesen über einen empirischen (hier: sozialen) Gegenstands-bereich (z.B. soziologische Handlungstheorie, Systemtheorie, Theorien der Stadtentwicklung) Methodologie: Lehre von den (wissenschaftlichen) Methoden der Erkenntnisgewinnung und ihrer Anwendung (z.B. „qualit.“ / „quantit.“ Sozialforschung, Hermeneutik) Methoden / Techniken: Spezifische Methoden / Verfahren / Vorgehensweisen der Informationssammlung und Auswertung (z.B. Befragung, Inhaltsanalyse, Tests, Korrelationsrechnung) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Zum Begriff anwendungsorientierte oder praxisorientierte versus disziplinorientierte Sozialforschung Zentrale Funktion: disziplinorientierte Sozialforschung: „Aufklärung“ (enlightenment) durch Veröffentlichung Wissensorientierung / Erklärung / Verallgemeinerung praxisorientierte Sozialforschung: Wissensübertragung (Transfer) durch Beratung Handlungsorientierung / Beeinflussung / Situationsbezogenheit 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Zum Begriff anwendungsorientierte oder praxisorientierte versus disziplinorientierte Sozialforschung Einfluß auf „Praxis“ und „Politik“: disziplinorientierte Sozialforschung (indirekt): Revision veralteter Auffassungen Neuformulierung von Zielen und Prioritäten praxisorientierte Sozialforschung (direkt): Erweiterung und Konkretisierung der Informationsbasis über Beteiligte und Betroffene („stakeholder“) maßnahmenbezogene Zielformulierung Maßnahmenentwicklung und –implementation Erfolgskontrolle 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Zum Begriff anwendungsorientierte oder praxisorientierte versus disziplinorientierte Sozialforschung Feedback(aus der Praxis / aus der Öffentlichkeit): disziplinorientierte Sozialwissenschaft: kein direktes Feedback (außer bei Rezensionen von Veröffentlichungen) verwertungsneutrale Erweiterung des Wissensbestandes praxisorientierte Sozialforschung: direktes Feedback durch Nutzer bedarfsorientierte Bereitstellung und Aufbereitung von Informationen 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Politik und Planung Erfolgskontrolle als Teil des Planungsprozesses Um den Stellenwert der Erfolgskontrolle innerhalb des Planungsprozesses beurteilen zu können, müssen klare Vorstellungen über den Ablauf des Planungsprozesses bestehen. ... In einer Vielzahl von Städten können im Augenblick mehr oder weniger gelungene Versuche beobachtet werden, die Fachplanungen stärker zu integrieren, die Stadtentwicklungsplanung als kontinuierlichen Prozeß zu organisieren und Systeme von Zielkriterien aufzustellen. (Eekhoff u.a. 1977, 17) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Politik und Planung „Versagen“ der Wissenschaft den in sich stimmigen, widerspruchsfreien Zielsystemen fehlte die Entsprechung in der Realität Zielkataloge können nicht so flexibel sein, dass sie Wertewandel antizipieren zu große Komplexität der sozialen Realität, um in gesamtgesellschaftlichen Indikatorensystemen abgebildet zu werden Status-quo-Rechnungen erwiesen sich als fehleranfällig; bei sich ändernden Randbedingungen wurden sie wertlos; erst recht gilt dies für die tiefer gehenden Wirkungsanalysen oder Folgeabschätzungen Modellrechnungen müssen notwendigerweise Komplexität so stark reduzieren, dass sie realitätsfern werden Fehler des Planungsmodells Probleme in der Implementationsphase wurden übersehen Erfolgskontrolle als Teil des Planungsprozesses Um den Stellenwert der Erfolgskontrolle innerhalb des Planungsprozesses beurteilen zu können, müssen klare Vorstellungen über den Ablauf des Planungsprozesses bestehen. ... In einer Vielzahl von Städten können im Augenblick mehr oder weniger gelungene Versuche beobachtet werden, die Fachplanungen stärker zu integrieren, die Stadtentwicklungsplanung als kontinuierlichen Prozeß zu organisieren und Systeme von Zielkriterien aufzustellen. (Eekhoff u.a. 1977, 17) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Politik und Planung Alternative: „experimentelle Politik“ statt fehlerbehaftete formalisierte Planungs- und Entscheidungs-modelle anzuwenden, macht sich die Politik den Königsweg der Grundlagenforschung zunutze: das kontrollierte Experiment indikatorengestützte Politik wird auf die Routinefragen reduziert bei innovativen Vorhaben sollen Pilotprojekte und „rückholbare“ Feldversuche die für Entscheidungen notwendigen Erfahrungen liefern die Feldexperimente werden jeweils wissenschaftlich begleitet (Monitoring der Implementation, Messung der bewirkten Veränderungen des Programms, Zurechnung der Wirkungen zu den Maßnahmen, Identifikation ungeplanter Auswirkungen) und analysiert Wissenschaft wird so wieder angewandten Sozialforschung und zum Lieferanten empirisch abgesicherter Informationen, ist aber nicht mehr direkt eingebunden in den politischen Planungs- und Entscheidungsprozess Erfolgskontrolle als Teil des Planungsprozesses Um den Stellenwert der Erfolgskontrolle innerhalb des Planungsprozesses beurteilen zu können, müssen klare Vorstellungen über den Ablauf des Planungsprozesses bestehen. ... In einer Vielzahl von Städten können im Augenblick mehr oder weniger gelungene Versuche beobachtet werden, die Fachplanungen stärker zu integrieren, die Stadtentwicklungsplanung als kontinuierlichen Prozeß zu organisieren und Systeme von Zielkriterien aufzustellen. (Eekhoff u.a. 1977, 17) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Interaktion Evaluation - Politik/Wiss./Öffentlichkeit Schaubild: Interaktionstheoretisches Modell (Widmer 2000, 82) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Evaluation: ein Begriff – verschiedene Konzepte 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin „Evaluation“ 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Der Begriff „Evaluation“ (1) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Der Begriff „Evaluation“ (2) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Der Begriff „Evaluation“ (3) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Erkenntnisziele → Evaluation zu welchem Zweck? 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Die Dualität von Politik und Evaluation 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Das „komplette“ Evaluationsdesign: Das dreistufige Verfahren des „peer review“ Lieferung der „evaluations-relevanten“ Informationen durch „das Programm“ und die empirische Forschung (Daten zur Programmdurchführung, Selbstbeschreibung und Selbstbewertung durch die Programmverantwortlichen, „Stakeholder“-Befragungen mit Bewertungscharakter) Bewertung durch externe Experten (peers), die die Funktion von Evaluatoren übernehmen (=subjektive Bewertungen, Geltungsbegründung durch Datenbezug und „Ansehen“ der Experten) Festlegung des „follow up“ (also der Konsequenzen aus akzeptierten Evaluationsurteilen) durch übergeordnete Instanz oder als Resultat eines Aushandlungsprozesses zwischen den Beteiligten Lösungsstrategie für die Evaluationsprobleme: „Objektivierung durch Verfahren“. Schwierigkeiten des Verfahrens: Projektmanagement, Konsensfindung über Zuständigkeiten und Verantwortliche 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Evaluation durch Forschung - das Leitmodell 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Das idealtypische Design und methodologische „Leitmodell“: Evaluation als Programmwirkungsforschung 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Methodisches (1): Aufgabenen der Programmforschung 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Ins Detail übersetzt: Variablenmodell einer Evaluationsstudie 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Methodisches (2): Wirkungszurechnung erfordert „eigentlich“ ein Experimentaldesign 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Methodisches (3): Anforderungen an den Gegenstand und an das theoretische Wissen 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Zentrale Voraussetzung für „Evaluation durch Forschung“: eindeutig definierte Ziele 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Zentrale Voraussetzung für die Durchführbarkeit und Akzeptanz: klare Kompetenzregelzungenen und gutes Projektmanagement 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Dilemma der Programmforschung Evaluation im methodologischen Sinne = Wirkungsforschung Messung der feststellbaren Veränderungen im (potentiellen) Wirkungsfeld und Zurechnung zu den Maßnahmen als Wirkungen (= gegenwärtige beabsichtigte und nicht beabsichtigte Effekte) Prognose der (noch nicht eingetretenen, aber zu erwartenden) künftigen Veränderungen und Zurechnung zu den Maßnahmen als Wirkungen (= technologische Wirkungsprognose und Status-quo-Prognose) Bewertung der eingetretenen und noch zu erwartenden Wirkungen im Lichte der Ziele des Programms sowie der Betroffenen Das Dilemma: Jede der drei Aufgabendimensionen wirft unlösbare methodologische Probleme auf: Evaluation in diesem Sinne ist aus methodologischer Sicht unmöglich. Forschungspragmatische Lösung 1: partizipative Programmwirkungsforschung der Einbezug von Beteiligten und Betroffenen sowohl bei den Prognoseaufgaben wie bei den Evaluationsaufgaben (stellvertretendes Aushandeln von Forschungsresultaten und Evaluation; Mediationsmodell). Forschungspragmatische Lösung 2: partizipative Programmentwicklung und –evaluation unter Einbezug von Beteiligten und Betroffenen (sozialkonstruktivistisches Modell) Forschungspragmatische Lösung 3: Verlagerung der Evaluation auf Beteiligte und Betroffene (Rückzug der Forschung auf Umfrageforschung; = die vorherrschende Praxis) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Evaluation durch Forschung - die vorherrschende Praxis 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Evaluation per Befragung mit „einfachen“ Fragebögen? Nur kein voreiliger Optimismus! Ein Beispiel: In einem Dozentenkurs des HDZ Essen von 1980 hieß es optimistisch: "Urteile (Schätzungen) von Studenten über die Lehre ... sind - wenn man etwa 20-30 Studenten urteilen lässt - zuverlässig wie professionelle Testverfahren". Und: "Sie sind von anderen Merkmalen der Studenten selbst und der Dozenten wenig beeinflusst." (Schmidt, J.: Evaluation. I. Evaluation als Diagnose, Essen 1980, 51 f.) Leider – jedenfalls bei Verwendung „einfacher“ Fragebögen – alles falsch! Standardisiertes Befragen ist – entgegen gängigen Vorurteilen – schon ein sehr problematisches Instrument der Informationsgewinnung; es müssen hinsichtlich des Erhebungsgegenstandes und der Forschungskontaktsituation sehr anspruchsvolle Voraussetzungen erfüllt sein, die selten voll erfüllt sind. Noch problematischer wird es, wenn Befragung als Instrument des „Messens“ eingesetzt werden soll (hier: Qualitätsmessung). Und da subjektive Werturteile nicht dadurch intersubjektiv werden, dass man einen Durchschnitt daraus bildet, wird es am schwierigsten, wenn Befragung als Methode des Evaluierens dienen soll. 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

„Messen“ - Vorüberlegungen Konzeptualisierung der Mess-Aufgabe: Präzisierung der Problemstellung  dimensionale und semantische Analyse  präzise Definition der Begriffe  ggf. Auswahl und Begründung von Indikatoren  Absicherung der Korrespondenz-hypothesen für die Indikatoren  Auswahl der Untersuchungsobjekte („Merkmalsträger“) Überlegungen zur „Messbarkeit“ der Indikatoren (= Möglichkeit der „Abbildung“ der empirischen Ausprägungen in Symbole): „Dimensionalität“ (nur „eindimensionale“ Indikatoren können eindeutig abgebildet werden) Bedeutungs“niveau“ der Begriffe notwendiger Differenzierungsgrad der Mess-Informationen (= „Variablen“-Definition) Überlegungen zur „Standardisierung“ der Mess-Situation (Sicherung der Identität der Messoperationen und der Kontextbedingungen für jede einzelne Messung) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Standardisierung MESSEN = standardisierte Erhebung standardisierter Informationen („Daten“) STANDARDISIERUNG = die Kontextbedingungen des Datenabrufs sind für jeden einzelnen „Fall“ identisch die Messvorschriften sind für jeden einzelnen „Fall“ identisch und werden von allen Beteiligten in identischer Weise angewandt Beispiel standardisierte Befragung: identisches Instrument (Fragebogen), identische Interviewsituation, identisches Interviewerverhalten für jede/n Befragte/n jede Frage ist für jede befragte Person identisch (d.h. wird semantisch identisch verstanden) jede gewählte Antwortvorgabe wird von jeder antwortenden Person in identischer Weise zugeordnet 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Mess-Modelle Messen als strukturtreue Abbildung empirische Struktur Symbolsystem (Zuordnungsregeln) Willkürliche Messung (Messen durch Festsetzung, measurement by fiat) theoretischer Begriff Symbolsystem (Zuordnungsregeln) Messung durch Befragung theoret. Begriff Frage(n) Symbolsystem (Operationalisierung) (??Zuordnungsregeln??) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Messen als strukturtreue Abbildung 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Messung durch Befragung entweder: Befragte Person ist „Informant“; d.h. sie gibt unter standardisierten Bedingungen Auskunft über Sachverhalte und Merkmale = sie ist die „messende Person“, Antworten sind „Messwerte“ Voraussetzungen für das „Messen durch Befragung“ oder: Befragte Person ist „Versuchsperson“; d.h. sie wird mit dem Stimulus „standardisierte Frage“ konfrontiert, ihre Antwort ist eine „Reaktion auf den Stimulus“ (ein Indikator für den gesuchten Messwert), Interviewer/in beobachtet und protokolliert die Reaktion auf den Fragestimulus = Interviewer/in ist die „messende Person“ 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Problem: „quantifizierendes“ Messen durch Befragung formale Voraussetzungen, die für eine „Messung“ erfüllt sein müssen: der „Gegenstand“ (das Objekt) der Beurteilung ist eindeutig definiert das zu messende „Merkmal“ (Variable) ist eindeutig definiert und operationalisiert eine „Mess-Skala“ (Vergleichsmaßstab) existiert und ist eindeutig definiert (incl. eindeutiger Skalen-Endpunkte sowie unterscheidbarer Abstufungen zwischen den Skalen-Endpunkten) Befragte sind in der Lage, den „Gegenstand“ intersubjektiv überein-stimmend zu identifizieren, das zu messende „Merkmal“ intersubjektiv übereinstimmend zu erkennen (identische Semantik + identische Perspektive) und die „Mess-Skala“ in intersubjektiv übereinstimmender Weise darauf anzuwenden (= Messung durch Vergleich der Merkmals-ausprägung eines Objekts mit einem Vergleichsmaßstab, Übersetzung dieses Vergleichs in Skalenpunkte) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Problem2: „evaluierendes“ Messen durch Befragung Erfüllt sein müssen zunächst die formalen Voraussetzungen für eine „Messung“; hinzu kommen als weitere Anforderungen: Neben dem „Kriterium” der Beurteilung („Qualitäts-Merkmal”) ist ein „Standard” der Beurteilung zu definieren: Wann ist etwas „gut”, wann „schlecht”, wann „mittelmäßig”? etc. Dieser „Standard” ist von allen Evaluierenden in intersubjektiv übereinstimmender Weise anzuwenden. Und auch das noch... Erforderlich ist die grundlegende Entscheidung: Soll die befragte Person Auskunft über sich selbst und ihren Bezug zum Gegenstand der Bewertung geben? (“Akzeptanzaussage”) Oder soll sie eine “quasi-objektive” Beurteilung des zu bewertenden Gegenstands vornehmen? (“Evaluationsaussage”) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Trotzdem Befragung auch zum Zwecke der Evaluation? Natürlich! Eine bessere Alternative (im Sinne von „universell anwendbar“) kann die empirische Sozialforschung nicht anbieten. Aber... Jede Antwort auf eine in der Situation „Forschungskontakt“ gestellte Frage ist eine subjektiv gefärbte, interpretationsbedürftige „Information“. Nur unter besonderen (selten erfüllten) Bedingungen ist sie auch ein „Messwert“. Und nur unter weiteren (und noch seltener erfüllten) Bedingungen kann sie auch eine „intersubjektiv geltende“ Evaluation sein (z.B. bei einem Programmziel: Akzeptanz). Für den Normalfall gilt: Das Erheben und Aufbereiten bewertender (=evaluierender) Aussagen liefert wichtige Informationen für die Evaluation, ist aber für sich genommen noch nicht die „Evaluation“! Zur „Evaluation“ gehört ein Gesamtprojekt, in dem Befragungen ein wichtiges Instrument der Gewinnung evaluationsrelevanter Informationen sind. 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Es gibt keine 'objektiven' Methoden zur Geltungsbegründung von Subjektivem 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Bewertung durch Forschung? Ziel von Evaluation: empirisch gestützte Bewertungen mit intersubjektivem Geltungsanspruch Evaluationsforschung: (durch das Ziel „Bewertung“ geprägte) spezifische Form anwendungsorientierter Forschung; methodisch kontrollierte, verwertungs- und bewertungsorientierte Form des Sammelns und Auswertens von Informationen 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Aber Forschung kann nicht: Werturteile wissenschaftlich begründen ihr methodologisches Problem: Legitimation des Anspruchs „empirisch gestützte Bewertungen mit intersubjektivem Geltungsanspruch“ zu formulieren; denn: Nach gängiger wissenschaftstheoretischer Überzeugung geht eines nicht: empirische Begründung von Bewertungen durch Forschung (auch aus korrekten Beschreibungen und Analysen sind keine normativen Aussagen ableitbar); Möglich ist lediglich, Forschung zum Zwecke von Bewertungen (s. den Stellenwert empirischer Daten im mehrstufigen Modell des peer review) die Geltungsbegründung empirischer Analysen folgt einer anderen Logik als die Geltungsbegründung normativer Aussagen; für die ersteren gibt es in der vorherrschenden Wissenschaftstheorie klare Regeln, für die letzteren nicht Zwei Lösungsmöglichkeiten: (1) Evaluation auf Tatsachenaussagen reduzieren oder: (2) Evaluation ‚externalisieren‘ 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Fall 1a: Evaluation als Programm(wirkungs)forschung 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Fall 1b: Evaluation als Qualitätsmessung durch Indikatoren Ziel: Die Bewertung „objektivieren“ (d.h. am zu bewertenden „Objekt“ festmachen) dadurch, dass „qualitätsrelevante“ Merkmale gemessen werden. Voraussetzung: Das Konstrukt „Qualität“ ist so zu definieren, dass seine Dimensionen als Merkmale des Gegenstands erscheinen. Methodologisch ist dann „nur“ noch die Aufgabe zu lösen, diese Qualitätsdimensionen so durch Indikatoren zu operationalisieren, dass sie als situationsunabhängige „Qualitäts-Messwerte“ gelten können. 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Fall 2: Evaluation durch Befragung Siehe Zitat aus dem Dozentenkurs des HDZ Essen von 1980 zum Thema Lehrevaluation: "Urteile (Schätzungen) von Studenten über die Lehre ... sind − wenn man etwa 20-30 Studenten urteilen lässt − zuverlässig wie professionelle Testverfahren". Und: "Sie sind von anderen Merkmalen der Studenten selbst und der Dozenten wenig beeinflusst." (Schmidt, J.: Evaluation. I. Evaluation als Diagnose, Essen 1980, 51 f.) Sofern dies zuträfe, wäre die Evaluation per Befragung der Königsweg zur Lösung aller Probleme der Evaluationsforschung, insbesondere auch der Werturteilsproblematik. Als Modell zur (intersubjektiven) ‚Messung‘ von Qualität ist es allerdings eher ein ‚Holzweg‘. Die Stärke von Evaluationsbefragungen liegt in ihrer Funktion der Lieferung ‚evaluationsrelevanter‘ Daten über und aus der Perspektive von stakeholdern. 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Grundlegendes Problem für alle Modelle: „Qualität“ „Qualität“ (also der abzubildende Gegenstand) kann nicht als Merkmal des zu bewertenden Objekts selbst gesehen werden, sondern als relationales Merkmal: als Eignung, Brauchbarkeit, Güte in Bezug auf bestimmte Ziele und Zwecke sowie auf bestimmte Nutzer- und Klientengruppen. Beim Modell der Programmevaluation wird konsequenterweise Qualität = Erfolg (also Eignung, Brauchbarkeit, Güte in Bezug auf bestimmte Ziele und Zwecke) gesetzt. Beim Indikatorenmodell ist Qualität = Eigenschaft des Objekts. Anders als beim Modell der Programmevaluation existiert aber nicht dessen methodologische Problemlösung (nämlich vom Programm vordefinierte Ziele und Maßnahmen). Beim Befragungsmodell schließlich gilt: Qualität = Qualitätswahrnehmung der urteilenden Person (an die Stelle ‚objektiver‘ Qualität tritt statistisch ermittelte ‚intersubjektive‘ Qualität) 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin

Prof. Dr. Helmut Kromrey - Berlin Gedankenexperiment Qualität von Autoreifen ?: Stadtverkehr, Landstraßen, Autobahn; „Normalfahrer“, LKW-Fahrer, Rennsportler; Rallye Paris-Dakar, Formel I 20.10.2007 Prof. Dr. Helmut Kromrey - Berlin