Entscheidungstheorie für Unentschlossene Indecision Theory
Entscheidungstheorie Decision Theory Jeder Stimulus löst eine interne Repräsentation aus, die sich durch einen eindimensionalen Parameter e beschreiben läßt. e e ist Gauß-verteilt, mit Standardabweichung = 1 und Mittelwert µ = 0 (Rauschen) bzw. µ = d (Signal). 02 d 0
e Entscheidungstheorie Decision Theory Bei Ja/Nein-Aufgaben setzt die VP ein Kriterium c und sagt Ja wenn e > c. Ja Bei Wahlaufgaben (forced choice) wählt die VP den Stimulus mit dem größten e. Signal d 0
Wahrscheinlichkeitsrechnung bedingte Wahrscheinlichkeit: A B A B Wahrscheinlichkeit für Hypothesen nach Bayes: :100 A :30 B :40 A B :24
Entscheidungstheorie bei Ja/Nein-Aufgaben e (e) d (e) (e) 0 (e) p cor wächst monoton mit e Kriterium in p cor Kriterium in e d 0
Entscheidungstheorie bei Wahlaufgaben am größten für e max = e s e2e2 e3e3 e1e1 (e 2 ) d (e 2 ) (e 3 ) 0 (e 3 ) (e 1 ) 0 (e 1 ) e am größten für e max = e s d 0
Wahlaufgaben ohne Entscheidungszwang unforced choice Es war der 1. Stimulus 2. Stimulus 3. Stimulus ich weiß es nicht
Wahlaufgaben ohne Entscheidungszwang unforced choice e2e2 e3e3 e1e1 e2e2 e3e3 e1e1 e2e2 e3e3 e1e1 p cor 1/N+ D d 0
d 0 Wahlaufgaben ohne Entscheidungszwang unforced choice e2e2 e1e1 |e 1 – e 2 | d > C D e S – e R |e 1 – e 2 | > C/d D|e 1 – e 2 | > c D + Dp cor 1/N
Anwendungsbeispiel: Adaptive Verfahren Signalstärke anpassen, um Wahrnehmungsschwelle zu finden Ja/Nein-Aufgaben simple up-down:Ja Nein führt zu 50% Ja –kriterienabhängig Wahl-Aufgaben, N=2,3,4...: weighted up-down (hier N=2): führt zu 75% kriterienfrei –Stochastik (random walk) –Raten wird erzwungen Wahl ohne Zwang (hier N=2) unforced weighted up-down führt zu 75% + / 2 Stochastik müßte reduziert werden Komfortgewinn Test des Verfahrens in Simulation und Experiment
Simulation des optimalen Nicht-Entscheiders in adaptiven Versuchsläufen optimaler Nicht-Entscheider bei festem d: p cor > 1/N + oder (N=2): |e 1 –e 2 | > c optimaler Nicht-Entscheider bei variablem d ? optimal wäre: konstant halten. Erfordert Kenntnis von d. ohne Kenntnis von d : c konstant halten (geht nur für N=2) N > 2: konstant halten. je virtuelle adaptive Versuchsläufe für verschiedene konstant gehaltene Werte von c (N = 2) bzw. (N 2) Messung des statistischen und systematischen Fehlers
Simulation des optimalen Nicht-Entscheiders in adaptiven Versuchsläufen je virtuelle adaptive Versuchsläufe für verschiedene konstant gehaltene Werte von c (N = 2) bzw. (N 2) Messung des statistischen und systematischen Fehlers
Experimenteller Vergleich: Ja/Nein, Wahl, Wahl ohne Zwang 6 Versuchspersonen, Sinuston in Rauschen, Startpunkt randomisiert, Schrittweite 4/2/1 dB, 120 bzw. 360 (N=4) Durchläufe (runs) N=6, erste 120 runs N=4, letzte 180 runs –SUD–UWUD–WUD erste 120 runs (N=6) – letzte 180 runs (N=4) – schlechtes Cluster (N=3) gutes Cluster (N=3)
Experimenteller Vergleich: Ja/Nein, Wahl, Wahl ohne Zwang 6 Versuchspersonen, Sinuston in Rauschen, Startpunkt randomisiert, Schrittweite 4/2/1 dB, 120 bzw. 360 (N=4) Durchläufe (runs)
Fazit vor Bayes (vage): Ich weiß nicht... nach Bayes (bestimmt): Ich weiß, daß ich nichts weiß! (Goethe oder so)