Entscheidungstheorie für Unentschlossene Indecision Theory.

Slides:



Advertisements
Ähnliche Präsentationen
Bayes-Netze KI 14-Bayes-Netze.
Advertisements

Simulated Annealing Marco Block & Miguel Domingo Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Stochastik in der Sek. II Sabrina Schultze.
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Fehler in der Entscheidungstheorie
Entscheidungstheorien
Gleich oder verschieden
Automatische Verfahren zur Bestimmung der Hörschwelle
Entscheidungstheorien
Entscheidungstheorie für Unentschlossene Indecision Theory.
Zeitliches probabilistisches Schließen
Sortierverfahren Richard Göbel.
Sortierverfahren Richard Göbel.
Methoden Fragen zur Vorlesung?. Methoden Hausaufgabe 2 Was sind die wichtigsten Merkmale von deskriptiver, korrelativer und experimenteller.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Messung in Einheiten der Standardabweichung
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Computerkurs: Quantitative Auswertung biochemischer Experimente Guten Morgen.
Nicht-Lineare Regression
Computerkurs: Quantitative Auswertung biochemischer Experimente Guten Morgen.
Konfidenzintervalle für Parameter
Modellvergleich.
Die kontextabhängige Relevanz von „irrelevanten“ Informationen
Experimentelles Design
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
III. Induktive Statistik
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Tutorium
Tutorium
Tutorium
Unser neuntes Tutorium
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Bayes‘sche Verfahren (Mitchell Kap. 6), Teil 1
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Vorlesung: ANOVA I
Eigenschaften der OLS-Schätzer
Deutsch als Zweitsprache: Experimentelle Methoden WS 2013/2014
Universität Stuttgart Wissensverarbeitung und Numerik I nstitut für K ernenergetik und E nergiesysteme Numerik partieller Differentialgleichungen, SS 01Teil.
Ausgleichungsrechnung II
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Die Gaußverteilung.
Information und Fitness
Kapitel 18 Dynamische Modelle: Schätzen der Parameter
Kapitel 19 Kointegration
Kapitel 14 Trends und Unit-root-Tests
Mehr zum Testen von Hypothesen
Kapitel 14 Trends und Unit-root-Tests
Theorie psychometrischer Tests, II
Simulation der Streuung eines Teilchens an einem Stufenpotential
Back, S.; Weigel, H.: Design for Six Sigma. Hanser, München 2014.
Statistik – Regression - Korrelation
Tutorial Schritt 1: Über den Link im VP gelangen Sie auf die Seite
EEG-Korrelate der Aktivierung kortikaler Objektrepräsentationen-1
setzt Linearität des Zusammenhangs voraus
Thema der Stunde I. Die Form der Stichprobenkennwerteverteilung
K. Desch - Statistik und Datenanalyse SS05
Die Gaussverteilung.
Geoinformationssysteme
Test 1 Test 2 Test 3. Test 4 Test 5 Test 6 Test 7 Test 8 Test 9.
Faltungscodes Vorteile
Stochastische Signale
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Test.
Improvisiertes Nachdenken

Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
 Präsentation transkript:

Entscheidungstheorie für Unentschlossene Indecision Theory

Entscheidungstheorie Decision Theory Jeder Stimulus löst eine interne Repräsentation aus, die sich durch einen eindimensionalen Parameter e beschreiben läßt. e e ist Gauß-verteilt  ,  mit Standardabweichung  = 1 und Mittelwert µ = 0 (Rauschen) bzw. µ = d‘ (Signal). 02  d‘ 00

e Entscheidungstheorie Decision Theory Bei Ja/Nein-Aufgaben setzt die VP ein Kriterium c und sagt „Ja“ wenn e > c.  „Ja“ Bei Wahlaufgaben (forced choice) wählt die VP den Stimulus mit dem größten e.  „Signal“  d‘ 00

Wahrscheinlichkeitsrechnung bedingte Wahrscheinlichkeit: A B  ABAB Wahrscheinlichkeit für Hypothesen nach Bayes:  :100 A :30 B :40 A  B :24

Entscheidungstheorie bei Ja/Nein-Aufgaben e (e)  d‘ (e) (e)  0 (e)  p cor wächst monoton mit e  Kriterium in p cor  Kriterium in e  d‘ 00

Entscheidungstheorie bei Wahlaufgaben  am größten für e max = e s e2e2 e3e3 e1e1 (e 2 )  d‘ (e 2 ) (e 3 )  0 (e 3 ) (e 1 )  0 (e 1 ) e  am größten für e max = e s  d‘ 00

Wahlaufgaben ohne Entscheidungszwang unforced choice Es war der 1. Stimulus 2. Stimulus 3. Stimulus ich weiß es nicht

Wahlaufgaben ohne Entscheidungszwang unforced choice e2e2 e3e3 e1e1 e2e2 e3e3 e1e1 e2e2 e3e3 e1e1 p cor  1/N+  D+  D  d‘ 00

00 Wahlaufgaben ohne Entscheidungszwang unforced choice e2e2 e1e1 |e 1 – e 2 |  d’ > C  D e S – e R |e 1 – e 2 | > C/d’  D|e 1 – e 2 | > c  D +  D+  Dp cor  1/N

Anwendungsbeispiel: Adaptive Verfahren Signalstärke anpassen, um Wahrnehmungsschwelle zu finden Ja/Nein-Aufgaben simple up-down:Ja  Nein   führt zu 50% „Ja“ –kriterienabhängig Wahl-Aufgaben, N=2,3,4...: weighted up-down (hier N=2):    führt zu 75%  kriterienfrei –Stochastik (random walk) –Raten wird erzwungen Wahl ohne Zwang (hier N=2) unforced weighted up-down       führt zu 75% +  / 2  Stochastik müßte reduziert werden  Komfortgewinn  Test des Verfahrens in Simulation und Experiment

Simulation des optimalen Nicht-Entscheiders in adaptiven Versuchsläufen optimaler Nicht-Entscheider bei festem d‘: p cor > 1/N +  oder (N=2): |e 1 –e 2 | > c optimaler Nicht-Entscheider bei variablem d‘ ? optimal wäre:  konstant halten. Erfordert Kenntnis von d‘. ohne Kenntnis von d‘ : c konstant halten (geht nur für N=2) N > 2:  konstant halten. je virtuelle adaptive Versuchsläufe für verschiedene konstant gehaltene Werte von c (N = 2) bzw.  (N  2) Messung des statistischen und systematischen Fehlers

Simulation des optimalen Nicht-Entscheiders in adaptiven Versuchsläufen je virtuelle adaptive Versuchsläufe für verschiedene konstant gehaltene Werte von c (N = 2) bzw.  (N  2) Messung des statistischen und systematischen Fehlers

Experimenteller Vergleich: Ja/Nein, Wahl, Wahl ohne Zwang 6 Versuchspersonen, Sinuston in Rauschen, Startpunkt randomisiert, Schrittweite 4/2/1 dB, 120 bzw. 360 (N=4) Durchläufe (runs) N=6, erste 120 runs N=4, letzte 180 runs –SUD–UWUD–WUD erste 120 runs (N=6) –3.4   0.5 letzte 180 runs (N=4) –0.3   0.3 „schlechtes“ Cluster (N=3) „gutes“ Cluster (N=3)

Experimenteller Vergleich: Ja/Nein, Wahl, Wahl ohne Zwang 6 Versuchspersonen, Sinuston in Rauschen, Startpunkt randomisiert, Schrittweite 4/2/1 dB, 120 bzw. 360 (N=4) Durchläufe (runs)

Fazit vor Bayes (vage): „Ich weiß nicht...“ nach Bayes (bestimmt): „Ich weiß, daß ich nichts weiß!“ (Goethe oder so)