Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
Veröffentlicht von:Carsten Buchholz Geändert vor über 6 Jahren
1
Haben wir wirklich Wahrscheinlichkeiten im Kopf
Haben wir wirklich Wahrscheinlichkeiten im Kopf? Eine Evaluation von und Alternativen zur Bayes'schen Rationalität - Zuerst möchte ich mich bei Ihnen ganz herzlich für die Einladung bedanken. Das Ziel meiner wissenschaftlichen Vortrags ist Ihnen einen Überblick über meine bisherige und zukünftige Forschung zu geben. Außerdem möchte ich Ihnen den für diese Stelle relevanten Teil meine wissenschaftliche Entwicklung nachzeichnen. Begonnen habe ich mehr in der Allgemeinen Psychologie. Aber wie Sie hoffentlich sehen werden, je eigenständiger ich forsche, desto stärker dominieren Forschungsmethoden meine Arbeit. Diesen Spagat habe ich auch versucht im Titel des Vortrags auszudrücken. Methodische Entwicklungen, also neue Ansätze der Modellierung, sollten auch immer auf psychologische Theorien zurückwirken. Dr. Henrik Singmann University of Warwick (UK) @HenrikSingmann
2
SCHLUSSFOLGERNDES DENKEN
Welche Prozesse unterliegen schlussfolgerndem Denken? Sachverhalte zueinander in Beziehung setzen und daraus neue Erkenntnisse zu ziehen. Wissenschaft: Klimawandel. In den letzten Jahren weltweit erhöhte Temperaturen. Was bedeutet das für die Zukunft? Wird das Poleis schmelzen und was hat das für Konsequenzen? mehr Beispiele… SCHLUSSFOLGERNDES DENKEN Wissenschaft alltägliches Problemlösen zielgerichtetes Handeln
3
Wahrscheinlichkeiten
𝑃 A B = 𝑃 B A 𝑃(𝐴) 𝑃(B) Alle Menschen sind sterblich. Alle Griechen sind Menschen. Also: Alle Griechen sind sterblich. X ? Gamma Normal Zum Beispiel, der bekannte Entwicklungspsychologie Jean Piaget vermutete, das am Ende der kognitiven Entwicklung des ‘Stadium der Formal-operationalen Intelligenz’ erreicht wird. In diesem Stadium ist Denken im allgemeinen Abstrakt und folgt im Grunde genommen der klassischen Logik. Als ein Beispiel dafür sehen wir hier Aristoteles, welcher häufig als Begründer der Logik gilt. Allerdings, wenn es einen relativ unstrittigen Befund im Feld gibt, dann ist es der, das das Denken der Menschen häufig alles andere als logisch ist. Nochtsdestoweniger kam es in den letzten Jahren zu einem erneuten Aufleben von normativen Theorien unter dem Sammelbegriffen „Bayesian Reasoning“ oder „Bayesian Brain“. Die grundsätzliche Idee hier ist, das wie Menschen Wahrschenlichkeiten im Kopf haben. In meiner Forschung habe ich einige Varianten solcher Bayesianischer Theorien empirisch getestet. Logik (z.B., Aristoteles) Wahrscheinlichkeiten (z.B., Thomas Bayes)
4
Menschen verhalten sich nicht Bayesianisch
Menschen verhalten sich nicht Bayesianisch! (zumindest nicht in "Rechenaufgaben") Amos Tversky Daniel Kahneman Singmann, Klauer & Over (2014): Replikation für probabilistisches konditionales Schließen.
5
Der Geist ist ein Bayesianischer Sampler
Keine mentale Repräsentationen von Wahrscheinlichkeits-verteilungen Wahrscheinlichkeits-verteilungen approximiert durch Sampling aus dem Gedächtnis Der Geist ist ein Bayesianischer Sampler Test des "Bayesian Brain": Kann ein sampling-basiertes Bayesianisches Modell Daten adäquat beschreiben? Aber, der Reihe nach. Das Projekt welches ich jetzt vorstellen möchte beruht auf einer Neuinterpretation des Bayesian Brain im Sinne eines Bayesian Samplers. Ein Sampler ist hier im statistischen Sinne zu verstehen und meint die zufällige Ziehung von Stichproben. Diese Idee wurde in einer Reihe von Publikationen in den letzten Jahren aufgestellt, zwei Davon sind hier dargestellt. Und auch wenn in vielen diesen Publikationen neue Theorien vorgestellt werden, statistisch adäquate Modelle werden nicht vorgestellt. Noisy Sampler : Statistisches Modell für Wahrscheinlichkeitsurteile kombiniert Bayesian brain Sampling Rauschen 2016 Mehr oder weniger.
6
Wahrscheinlichkeitsskala
Wie wahrscheinlich ist es, dass es an einem zufällig ausgewählten Tag in Irland bewölkt ist? Der Geist ist ein Bayesianischer Sampler - 2016 Wahrscheinlichkeitsskala
7
Der Geist ist ein Bayesianischer Sampler
Wie wahrscheinlich ist es, dass es an einem zufällig ausgewählten Tag in Irland bewölkt ist? "wahre" Wahrscheinlichkeit Der Geist ist ein Bayesianischer Sampler 2016 Wahrscheinlichkeitsskala
8
Der Geist ist ein Bayesianischer Sampler
Wie wahrscheinlich ist es, dass es an einem zufällig ausgewählten Tag in Irland bewölkt ist? "wahre" Wahrscheinlichkeit n 10 Samples Der Geist ist ein Bayesianischer Sampler - Die Idee des Samplings, die wir operationalisieren über die binomial Verteilung, ist ausreichend um zu erklären, warum Menschliches Verhalten manchmal nicht exakt Bayesianisch ist. 2016 Wahrscheinlichkeitsskala
9
Der Geist ist ein Bayesianischer Sampler
Wie wahrscheinlich ist es, dass es an einem zufällig ausgewählten Tag in Irland bewölkt ist? "wahre" Wahrscheinlichkeit n 10 Samples Der Geist ist ein Bayesianischer Sampler n 50 Samples 2016 Wahrscheinlichkeitsskala
10
Wahrscheinlichkeitsskala
Wie wahrscheinlich ist es, dass es an einem zufällig ausgewählten Tag in Irland … ist? Wahrscheinlichkeitsskala bewölkt? 01 kalt? 02 bewölkt oder kalt? 03 bewölkt und kalt? 04 bewölkt und nicht kalt? 05 kalt und nicht bewölkt? 06 Costello & Watts (2014)
11
Wahrscheinlichkeitsskala
Wie wahrscheinlich ist es, dass es an einem zufällig ausgewählten Tag in Irland … ist? Wahrscheinlichkeitsskala bewölkt? 01 kalt? 02 bewölkt oder kalt? 03 bewölkt und kalt? 04 bewölkt und nicht kalt? 05 kalt und nicht bewölkt? 06 Costello & Watts (2014)
12
Wahrscheinlichkeitsskala
Wie wahrscheinlich ist es, dass es an einem zufällig ausgewählten Tag in Irland … ist? Wahrscheinlichkeitsskala bewölkt? 01 kalt? 02 bewölkt oder kalt? 03 kalt + - Wahrscheinlichkeitsverteilung über bewölkt und kalt. bewölkt bewölkt und kalt? 04 bewölkt und nicht kalt? 05 kalt und nicht bewölkt? 06 z.B. Oaksford & Chater (1994)
13
Noisy Sampler Generatives statistisches Modell für diskrete Wahrscheinlich-keitsurteile Generiert "wahre" Wahrscheinlichkeit (z.B. Oakford & Chater, 1994) Wahrscheinlichkeitsverteilung Probabilistische Transformation der "wahren" Wahrscheinlichkeit Bayesianisches Sampling Für alle Komponenten haben wir freie Parameter, auch für die Anzahl der Samples. Deviance gibt uns die Teststatistik. Aber, Deviance ist auf einer arbiträren Skala. Wir wissen lediglich, dass je grösser die Deviance je schlechter der Fit. Um zu testen ob die VP Bayesianisch im Sinne des Modells sind, benötigen wir mehr Informationen. Sampling (Costello & Watts, 2014) & Antwortabgabe kann fehlerhaft sein Gedächtnis & Antwort Rauschen
14
Anzahl (aus 66) Anzahl (aus 105) Statistischer Test des Bayesian Brain
p-Wert Anzahl (aus 66) Statistischer Test des Bayesian Brain Null-Hypothese: Kann Noisy Sampler das datengenerierende Modell sein? p-Wert Anzahl (aus 105) ≈ 50% möglicherweise Bayesianisch im Sinne des Noisy Samplers. Allerdings: Verteilung der p-Werte ist nicht uniform Spricht für systematische Abweichung zwischen Daten und Modell
15
Wahrscheinlichkeiten
𝑃 A B = 𝑃 B 𝐴 𝑃(𝐴) 𝑃(B) Alle Menschen sind sterblich. Alle Griechen sind Menschen. Also: Alle Griechen sind sterblich. X ? X Gamma Normal Zum Beispiel, der bekannte Entwicklungspsychologie Jean Piaget vermutete, das am Ende der kognitiven Entwicklung des ‘Stadium der Formal-operationalen Intelligenz’ erreicht wird. In diesem Stadium ist Denken im allgemeinen Abstrakt und folgt im Grunde genommen der klassischen Logik. Als ein Beispiel dafür sehen wir hier Aristoteles, welcher häufig als Begründer der Logik gilt. Allerdings, wenn es einen relativ unstrittigen Befund im Feld gibt, dann ist es der, das das Denken der Menschen häufig alles andere als logisch ist. Nochtsdestoweniger kam es in den letzten Jahren zu einem erneuten Aufleben von normativen Theorien unter dem Sammelbegriffen „Bayesian Reasoning“ oder „Bayesian Brain“. Die grundsätzliche Idee hier ist, das wie Menschen Wahrschenlichkeiten im Kopf haben. In meiner Forschung habe ich einige Varianten solcher Bayesianischer Theorien empirisch getestet. Logik (z.B., Aristoteles) Wahrscheinlichkeiten (z.B., Thomas Bayes)
16
Konditionales Schließen
KonditionaleR SCHLUSS I Wenn ein Ballon mit einer Nadel gestochen wurde, dann platzt er. Ein Ballon wurde mit einer Nadel gestochen. Wie wahrscheinlich ist es, dass der Ballon platzt? Singmann, Klauer & Beller (2016) Konditionales Schließen Konditional: Wenn-dann Satz KonditionaleR SCHLUSS II Wenn ein Ballon mit einer Nadel gestochen wurde, dann platzt er. Ein Ballon wurde NICHT mit einer Nadel gestochen. Wie wahrscheinlich ist es, dass der Ballon NICHT platzt? Wenn die globale Erwärmung anhält, dann geht Helgoland bald unter. Wenn ein Ballon mit einer Nadel gestochen wurde, dann platzt er.
17
FORMBASIERTE KOMPONENTE WISSENSBASIERTE KOMPONENTE
Dual-Source Model Zwei-Quellen Modell 𝜏 𝜉 𝜆 1−𝜆 FORMBASIERTE KOMPONENTE X WISSENSBASIERTE KOMPONENTE Für wie logisch gültig halte ich die Form des Arguments? (= ignorieren des Inhalts) Wie wahrscheinlich ist die Konsequenz, gegeben mein Hintergrundwissen? (= ignorieren der Form)
18
Gibt es einen selektiven Einfluss der logischen Form auf Formparameter 𝜏, aber nicht auf Mischverhältnis 𝜆? KONDITIONAL BIKONDITIONAL Wenn-dann Wenn-dann und nur dann Wenn ein Ballon mit einer Nadel gestochen wurde, dann platzt er. Ein Ballon wurde mit einer Nadel gestochen. Wie wahrscheinlich ist es, dass der Ballon platzt? Wenn ein Ballon mit einer Nadel gestochen wurde, dann und nur dann platzt er. Ein Ballon wurde mit einer Nadel gestochen. Wie wahrscheinlich ist es, dass der Ballon platzt? Experiment 1: Konditional versus Bikonditional
19
Gibt es einen selektiven Einfluss der logischen Form auf Formparameter 𝜏, aber nicht auf Mischverhältnis 𝜆? 𝜏 𝜆 Bikonditional * ns. FORMBASIERTE KOMPONENTE Mischverhältnis Konditional KonditionaleR SCHLUSS Experiment 1: Konditional versus Bikonditional
20
Gibt es einen selektiven Effekt der Expertise auf Mischverhältnis 𝜆 , aber nicht auf Formparameter 𝜏? EXPERTE NOVIZE Ein Ernährungswissenschaftler sagt: Wenn Anne viel Petersilie isst, dann verbessert sich ihr Eisenwert im Blut. Anne isst viel Petersilie. Wie wahrscheinlich ist es, dass sich ihr Eisenwert verbessert? Ein Drogerieangestellter sagt: Wenn Anne viel Petersilie isst, dann verbessert sich ihr Eisenwert im Blut. Anne isst viel Petersilie. Wie wahrscheinlich ist es, dass sich ihr Eisenwert verbessert? Experiment 2: Experte versus Novize
21
Gibt es einen selektiven Effekt der Expertise auf Mischverhältnis 𝜆 , aber nicht auf Formparameter 𝜏? 𝜏 𝜆 ns. Novize * FORMBASIERTE KOMPONENTE Mischverhältnis Experte KonditionaleR SCHLUSS Experiment 2: Experte versus Novize
22
Annahme Bayesian Brain: Wahrscheinlichkeiten im Kopf
Statistischer Test mit Bayesian Brain Sampling Rauschen Modell kann einfache Wahrschein-lichkeitsurteile nicht adäquat beschreiben Annahme Zwei-Quellen Modell: Beim schlussfolgernden Denken mit realistischen Inhalten wird Inhalt und Form gewichtet integriert. Evidenz dafür: Effekt der Form unabhängig vom Inhalt und Gewichtung Expertise beeinflusst selektiv die Gewichtung
23
Vielen Dank für Ihre Aufmerksamkeit und an
Christoph Klauer Universität Freiburg Sieghard Beller University of Bergen
24
Response Model Model has 4 parameters:
Number of samples: m in {1, 2, 4, 5, 10, 20, 25, 50, 100} True probability: 𝑃 𝑇 𝐴 Noise: d (Note that: 𝑝= 𝑃 𝑇 𝐴 +𝑑 −2𝑑 𝑃 𝑇 (𝐴)) Mixture weight: 𝜙
25
Gesucht: Verteilung der Deviance unter der Null Hypothese (H0)
Noisy Sampler Generatives statistisches Modell für diskrete Wahrscheinlich-keitsurteile 01 Generiere synthetische Daten aus Maximum-Likelihood Parametern 02 Fitten von Noisy Sampler auf synthetische Daten 500 mal wieder-holen 03 Aufzeichnen der Deviance bei Fit zu synthetische Daten Wir benötigen die Verteilung der Teststatistik unter der Nullhypothese. Die Stichprobenkennwertverteilung. Die Nullhypothese ist hier natürlich, ob das Noisy Sampler Modell das wahre, datengenerierende Modell ist. Also wir fragen, könnte der Noisy Sampler die Daten generiert haben. Und wir bekommen die Stichprobenkennewertverteilung über Bootstrapping.
26
Gesucht: Verteilung der Deviance unter der Null Hypothese (H0)
Noisy Sampler Generatives statistisches Modell für diskrete Wahrscheinlich-keitsurteile 01 Generiere synthetische Daten aus Maximum-Likelihood Parametern 02 Fitten von Noisy Sampler auf synthetische Daten 500 mal wieder-holen p = .62 03 Aufzeichnen der Deviance bei Fit zu synthetische Daten p-Wert: Wahrscheinlichkeit einer Teststatistik unter der H0, mindestens so gross wie die beobachtete Teststatistik
Ähnliche Präsentationen
© 2025 SlidePlayer.org Inc.
All rights reserved.