Fehler in der Entscheidungstheorie

Slides:



Advertisements
Ähnliche Präsentationen
Modellierung und Schätzung von Variogrammen
Advertisements

Die Beschreibung von Bewegungen
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Entscheidungstheorien in Psychologie und Ökonomie
Heuristiken und Kontexteinflüsse
Entscheidungstheorien
Gleich oder verschieden
Entscheidungstheorien
Entscheidungstheorie für Unentschlossene Indecision Theory.
Die Normalisierung und Wahrnehmung eines fremden Akzents Datum: Referentin: Carolin Funk Dozent: Prof. Dr. Jonathan Harrington Hauptseminar:
Forschungsstatistik II
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Das Allgemeine lineare Modell (ALM) - Varianz als Schlüsselkonzept
Computerkurs: Quantitative Auswertung biochemischer Experimente Guten Morgen.
Nicht-Lineare Regression
© 2002 Prof. Dr. G. Hellberg 1 XML-Seminar XML-Technologie: XML in Theorie und Praxis Prof. Dr. G. Hellberg XML-Technologie: XML in Theorie und Praxis.
Mixture Regression Modelle
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
Latente Variablen – Kennwerte zur Beurteilung von Modellen
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
Strukturgleichungsmodelle
F FnFn z Prof. Dr. Johann Graf Lambsdorff Universität Passau SS a. Anhang zur Bestimmung der optimalen Taylor-Regel.
Kombination von Tröpfchen- und Schalenmodell
Tutorium
Tutorium
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Generalisierte additive Modelle
Eigenschaften der OLS-Schätzer
Probleme der Modellspezifikation
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Externe Bewertung in IB-Biologie
Eignung von Grammatik-basiertem Layout für grafische Programmiersprachen Seminar Layout-Algorithmen für Graphen Institut für Informatik Christian-Albrechts.
Bestimmung der Regressionsgewichte in der multiplen Regression
Ausgleichungsrechnung I
Ausgleichungsrechnung II
Entscheidung bei Infomationsdefizit: Simultane optimale Alternativensuche und Nutzenpräzisierung o.Univ. Prof. Dkfm. Dr. Wolfgang Janko, WU.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Einführung in die Programmierung Wintersemester 2008/09 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Konfidenzintervall und Testen für den Mittelwert und Anteile
Kapitel 19 Kointegration
Kapitel 16 Ökonometrische Modelle
Kapitel 14 Trends und Unit-root-Tests
Prädiktion und Klassifikation mit Random Forest
Framing Effekt: Der getrennte Einfluss von Wahrscheinlichkeiten und Utilities Ralf Stork, E. H. Witte Universität Hamburg, Fachbereich Psychologie, Von-Melle-Park.
Kapitel 14 Trends und Unit-root-Tests
Theorie psychometrischer Tests, II
Informatik III Christian Schindelhauer Wintersemester 2006/07
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
SCANDEC besser Entscheiden Methode zur strukturierten Entscheidungsfindung, die in Airline Cockpits erfolgreich angewendet wird. © Heinz Zeltner, 2008.
Lernmodelle und Experimentelle Untersuchungen
Kopfübungen BORG Schoren KÜ 3
Entscheidungstheorie für Unentschlossene Indecision Theory.
2. Einzielentscheidungen mit einem Szenarium
Die Binomialverteilung
Varianzstabilisierung von Genexpressionsdaten
Deterministische Verfahren
Geoinformationssysteme
EIN NEUES ENSEMBLE- KLASSIFIKATIONSVERFAHREN Tim Schneider Rotation Forest.
Optimierung als Ziel Prof. Dr. Dörte Haftendorn, Leuphana Universität Lüneburg,
Makro-quantitativ soziologische Forschung Referat von Daryl Snell.
Die klassischen Methoden der historisch-vergleichenden Forschung Universität Zürich Soziologisches Institut Seminar: Methoden des internationalen Vergleichs.
TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Informationssuche bei hypothetischen & realen Entscheidungen
 Präsentation transkript:

Fehler in der Entscheidungstheorie Christian-Albrechts-Universität zu Kiel Institut für Psychologie Wintersemester 2008/09 Seminar „Economics, Psychology and Decision Making“ Prof. Dr. Ulrich Schmidt / Prof. Christian Kärnbach Fehler in der Entscheidungstheorie Präsentation von Sarah Trehern Basierend auf einer Hausarbeit von Cathrin Hauberg

Fehler in der Entscheidungstheorie Es gibt verschiedene Theorien, die Entscheidungsverhalten von Personen vorhersagen. Diese sind deterministisch, d.h. eine Person müsste sich, vor die gleiche Entscheidung gestellt, immer gleich entscheiden. Tut sie aber nicht.

Gliederung Tremble Model Modelle nach Fechner Luce Model Random Utility Model Kombimodell Noise/Bias (Expected Utility Theory mit Fehlermodell) Fazit Diskussion

Schön einfach: das Tremble Model Entscheidungstheorie sagt wahre Präferenz voraus Manchmal passiert ein „tremble“ und die Person wählt eine nicht bevorzugte Alternative Der „tremble“ tritt mit einer festen Wahrscheinlichkeit p auf

Fazit: Das Tremble Model Kommt mit nur einem zusätzlichen Parameter p aus Keine schwierigen Berechnungen erforderlich  Zu einfach: Leider passt es nicht zu den Daten

Modelle nach Fechner, Grundprinzip Aus der jeweiligen Entscheidungstheorie bildet man die Nutzendifferenz der beiden Alternativen: u(L) – u(R). Hinzu kommt ein normalverteilter Fehlerterm ε. Ist u(L) – u(R) + ε > 0, wird L gewählt.

Modelle nach Fechner Mit gleicher Varianz ein zusätzlicher Parameter pro Person (und Situation) Mit verschiedener Varianz ein zusätzlicher Parameter pro Person (und Situation) Mit verschiedener Varianz, beschnitten ein zusätzlicher Parameter pro Person (und Situation)  Scheinen ganz gut zu passen, besonders 3.

Luce Choice Model Fehlerterm ist nicht additiv: P(„L“) = u(L)1/ μ / [u(L) 1/ μ + u(O) 1/ μ ] P(„L“) ist die Wahrscheinlichkeit, dass L gewählt wird. μ beschreibt das Rauschen und ist > 0.

Luce Choice Model Auch nur ein Parameter origineller als additiver Fehlerterm  Erlaubt keine lineare Transformation von u(L)

Das Random Utility Model Die utilities sind Funktionen einer Reihe von erklärenden Variablen. Vektor Xin enthält alle diese Variablen, wobei i der Index einer bestimmten Alternative ist und n eine bestimmte Person beschreibt.   Somit lässt sich Uin , also die Utility von i für n beschreiben: Uin = V( Xin ; β) + εin V = Funktion von erklärenden Variablen und Parametern, auch systematic utility genannt β = Parameter der Funktion εin = Zufallsfehler

Das Random Utility Model Auch für qualitative Entscheidungen geeignet Erlaubt mehr als zwei Wahlmöglichkeiten sehr flexibel  beliebig viele Parameter

Kombimodelle: Noise/Bias Noise Model ähnlich wie bei Fechner Wahl zwischen Lotterien: Wenn CEL – CER + ε > 0, dann Entscheidung für L. ε ~ N(0, s) s ist ein Maß für das Rauschen (wird gesucht) CE bedeutet Sicherheitsäquivalent (von Lotterie L oder R)

Noise: Ermittlung des Sicherheitsäquivalents Drei Varianten: BID, ASK, BDM Person kalkuliert EU und gibt CE an, welches gleiche EU hat. V = u-1 (EUG) + ε V ist das angegebene Sicherheitsäquivalent EUG ist die expected utility einer Lotterie G

Bias Kombiniertes Fazit (Bias und Noise): Gleiches Experiment wie eben: Modellierung einer Entscheidungsverzerrung Wahrer Wert v als lineare Transformation von V: v = a + bV a und b beschreiben die Verzerrung. Kombiniertes Fazit (Bias und Noise): Die Wahl zwischen zwei Lotterien bringt die genauesten Ergebnisse.

EU plus Fehler Es gibt Wahlphänomene, die der Expected Utility Theory wiedersprechen. Ist das immer noch so, wenn ein geeignetes Fehlermodell eingebaut wird? Phänomene: Common consequence effect, Common ratio effect, Ellsberg-Paradox

EU plus Fehler Verfahren: Personen wählen je dreimal zwischen Lotteriepaaren. Fehler werden umgangen: Nimmt man nur die Fälle, wo die Entscheidungen konsistent sind, wird EU deutlich seltener verletzt. Ausnahme: Ellsberg-Paradox!

Fazit Es kommt nicht nur auf die Entscheidungstheorie an, sondern auch auf das stochastische Fehlermodell.

Fragen Bei wieviel Genauigkeit in der Vorhersage ist Schluss? Mit welcher Berechtigung kann man überhaupt von „Fehlern“ sprechen, wenn sich eine Person nicht immer gleich entscheidet? Kann man Abweichungen erklären, ohne auf psychologische Begriffe einzugehen?

Literatur Blavatskyy, P. und G. Pogrebna (2007). „Models of Stochastic Choice and Decision Theories:Why both are important for Analysing Decisions“, Insitute for Empirical Research in Economics, University of Zurich, Working Paper No. 319 Schmidt, U., A. Morone und J.D. Hey (2007). „Noise and Bias in Eliciting Preferences“, Kiel Working Paper , No. 1386 Schmidt, U., T. Neugebauer (2007). „Testing expected Utility in the Presence of Errors“, The Economic Journal, 117, pp. 470-485 Walker, J. and M. Ben-Akiva (2002) Generalized Random Utility Model, Mathematical Social Sciences 43(3), 303-343.