Entscheidungstheorie für Unentschlossene Indecision Theory.

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmen und Datenstrukturen
Advertisements

Poisson-Neurone und Poisson-Verhalten
Bayes-Netze KI 14-Bayes-Netze.
Simulated Annealing Marco Block & Miguel Domingo Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Lösung der elastischen Wellengleichung auf einem variablen FD-Gitter Daniel Köhn und Thomas Bohlen Graz, den 24. Januar 2005.
Fehler in der Entscheidungstheorie
Entscheidungstheorien
Gleich oder verschieden
Automatische Verfahren zur Bestimmung der Hörschwelle
Hypothesenprüfung nach Bayes
Entscheidungstheorien
Klassische Hypothesenprüfung
Sortierverfahren Richard Göbel.
Sortierverfahren Richard Göbel.
EmPra Der Einfluss und die Verarbeitung von emotionalen Reizen
Gliederung Vertrauensintervalle Arten von Hypothesen
Methoden Fragen zur Vorlesung?. Methoden Hausaufgabe 2 Was sind die wichtigsten Merkmale von deskriptiver, korrelativer und experimenteller.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Messung in Einheiten der Standardabweichung
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Computerkurs: Quantitative Auswertung biochemischer Experimente Guten Morgen.
Nicht-Lineare Regression
Konfidenzintervalle für Parameter
Modellvergleich.
PG 520 Intelligence Service – gezielte Informationen aus dem Internet
Die kontextabhängige Relevanz von „irrelevanten“ Informationen
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Klausuraufgaben.
Experimentelles Design
Nachholung der Vorlesung vom Freitag
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Extra-SPSS-Kurse Durchführung: Birte Holtfreter Termine Di Mi Mi Ort PC-Pool Loefflerstarße.
Tutorium
Tutorium
Tutorium
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Wiederholung und Beispiele
Bayes‘sche Verfahren (Mitchell Kap. 6), Teil 1
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Vorlesung: ANOVA I
Deutsch als Zweitsprache: Experimentelle Methoden WS 2013/2014
Ausgleichungsrechnung II
Design and analysis of GUI test-case prioritization using weight-based methods Samra Khan.
Leo Hamminger, Martina Prinz, Elisabeth Winklehner Instrumente Schule Bewusst Instrumente Schule Bewusst Strategien der Datenreduktion Inhaltliche.
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Definitionen für Wahrscheinlichkeiten
Einführung in SPSS/PASW. Inhaltsübersicht 1. Intro ( ) 2. Deskriptive Statistik ( ) 3. Ausgaben ( ) Wiederholung Tabellen,
Die Gaußverteilung.
Berechnung von Prozentwert, Prozentsatz und Grundwert mit dem Dreisatz und mit der Operatorenschreibweise Prozentrechnung.
STATISIK LV Nr.: 1375 SS März 2005.
Konfidenzintervall und Testen für den Mittelwert und Anteile
Kapitel 19 Kointegration
Kapitel 14 Trends und Unit-root-Tests
Mehr zum Testen von Hypothesen
Grundlagen der Messtechnik
Statistik I - Übung Sarah Brodhäcker.
Kapitel 14 Trends und Unit-root-Tests
denn er war ihm mit 50 cm einfach zu lang
Es war einmal ein Mann, der mit seinem besten Stück nicht zufrieden war, denn er war mit 50 cm einfach zu lang. Nachdem er sich nicht mehr zu helfen wußte,
Bioinformatik Vorlesung
Statistik – Regression - Korrelation
Tutorial Schritt 1: Über den Link im VP gelangen Sie auf die Seite
EEG-Korrelate der Aktivierung kortikaler Objektrepräsentationen-1
Entscheidungstheorie für Unentschlossene Indecision Theory.
Thema der Stunde I. Die Form der Stichprobenkennwerteverteilung
K. Desch - Statistik und Datenanalyse SS05
Geoinformationssysteme
 Präsentation transkript:

Entscheidungstheorie für Unentschlossene Indecision Theory

Entscheidungstheorie Decision Theory Jeder Stimulus löst eine interne Repräsentation aus, die sich durch einen eindimensionalen Parameter e beschreiben läßt. e e ist Gauß-verteilt, mit Standardabweichung = 1 und Mittelwert µ = 0 (Rauschen) bzw. µ = d (Signal). 02 d 0

e Entscheidungstheorie Decision Theory Bei Ja/Nein-Aufgaben setzt die VP ein Kriterium c und sagt Ja wenn e > c. Ja Bei Wahlaufgaben (forced choice) wählt die VP den Stimulus mit dem größten e. Signal d 0

Wahrscheinlichkeitsrechnung bedingte Wahrscheinlichkeit: A B A B Wahrscheinlichkeit für Hypothesen nach Bayes: :100 A :30 B :40 A B :24

Entscheidungstheorie bei Ja/Nein-Aufgaben e (e) d (e) (e) 0 (e) p cor wächst monoton mit e Kriterium in p cor Kriterium in e d 0

Entscheidungstheorie bei Wahlaufgaben am größten für e max = e s e2e2 e3e3 e1e1 (e 2 ) d (e 2 ) (e 3 ) 0 (e 3 ) (e 1 ) 0 (e 1 ) e am größten für e max = e s d 0

Wahlaufgaben ohne Entscheidungszwang unforced choice Es war der 1. Stimulus 2. Stimulus 3. Stimulus ich weiß es nicht

Wahlaufgaben ohne Entscheidungszwang unforced choice e2e2 e3e3 e1e1 e2e2 e3e3 e1e1 e2e2 e3e3 e1e1 p cor 1/N+ D d 0

d 0 Wahlaufgaben ohne Entscheidungszwang unforced choice e2e2 e1e1 |e 1 – e 2 | d > C D e S – e R |e 1 – e 2 | > C/d D|e 1 – e 2 | > c D + Dp cor 1/N

Anwendungsbeispiel: Adaptive Verfahren Signalstärke anpassen, um Wahrnehmungsschwelle zu finden Ja/Nein-Aufgaben simple up-down:Ja Nein führt zu 50% Ja –kriterienabhängig Wahl-Aufgaben, N=2,3,4...: weighted up-down (hier N=2): führt zu 75% kriterienfrei –Stochastik (random walk) –Raten wird erzwungen Wahl ohne Zwang (hier N=2) unforced weighted up-down führt zu 75% + / 2 Stochastik müßte reduziert werden Komfortgewinn Test des Verfahrens in Simulation und Experiment

Simulation des optimalen Nicht-Entscheiders in adaptiven Versuchsläufen optimaler Nicht-Entscheider bei festem d: p cor > 1/N + oder (N=2): |e 1 –e 2 | > c optimaler Nicht-Entscheider bei variablem d ? optimal wäre: konstant halten. Erfordert Kenntnis von d. ohne Kenntnis von d : c konstant halten (geht nur für N=2) N > 2: konstant halten. je virtuelle adaptive Versuchsläufe für verschiedene konstant gehaltene Werte von c (N = 2) bzw. (N 2) Messung des statistischen und systematischen Fehlers

Simulation des optimalen Nicht-Entscheiders in adaptiven Versuchsläufen je virtuelle adaptive Versuchsläufe für verschiedene konstant gehaltene Werte von c (N = 2) bzw. (N 2) Messung des statistischen und systematischen Fehlers

Experimenteller Vergleich: Ja/Nein, Wahl, Wahl ohne Zwang 6 Versuchspersonen, Sinuston in Rauschen, Startpunkt randomisiert, Schrittweite 4/2/1 dB, 120 bzw. 360 (N=4) Durchläufe (runs) N=6, erste 120 runs N=4, letzte 180 runs –SUD–UWUD–WUD erste 120 runs (N=6) – letzte 180 runs (N=4) – schlechtes Cluster (N=3) gutes Cluster (N=3)

Experimenteller Vergleich: Ja/Nein, Wahl, Wahl ohne Zwang 6 Versuchspersonen, Sinuston in Rauschen, Startpunkt randomisiert, Schrittweite 4/2/1 dB, 120 bzw. 360 (N=4) Durchläufe (runs)

Fazit vor Bayes (vage): Ich weiß nicht... nach Bayes (bestimmt): Ich weiß, daß ich nichts weiß! (Goethe oder so)