Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Was ist Gegenstand der Lernpsychologie? -untersucht Lernen und Erlernen allgemeiner Mechanismen der Verhaltensänderung - sucht nach Regeln und Gesetzmäßigkeiten,

Ähnliche Präsentationen


Präsentation zum Thema: "Was ist Gegenstand der Lernpsychologie? -untersucht Lernen und Erlernen allgemeiner Mechanismen der Verhaltensänderung - sucht nach Regeln und Gesetzmäßigkeiten,"—  Präsentation transkript:

1 Was ist Gegenstand der Lernpsychologie? -untersucht Lernen und Erlernen allgemeiner Mechanismen der Verhaltensänderung - sucht nach Regeln und Gesetzmäßigkeiten, wie sich Wissen und Verhalten durch Erfahrung ändert

2 Kritik am Introspektionismus logisches/ wissenschaftstheoret.Kritik: man kann mit geistigem Prozess schlecht einen geistigen Prozess untersuchen muss intensiv trainiert werden bleibt immer individuell, jeder hat andere Innensicht  widersprüchliche Ergebnisse schwammige, unklare Festlegung der Begriffe schlechte Verallgemeinerbarkeit Verhalten ist immer auch Reaktion auf Umwelt und sollte daher nicht nur intrapsychisch erklärt werden unbewusst ablaufende Vorgänge sind so nicht untersuchbar

3 S-R-Behaviorismus: Ziele - Verhalten (Reaktion) auf bestimmte Umweltbedingungen (Stimuli) soll beobachtet, vorhergesagt & kontrolliert werden können Es werden allgemeine Regeln für S-R- Verbindungen aufgestellt

4 S-R-Behaviorismus: Methodik Anti-introspektionistisch, lehnen mentale Konzepte ab Psychologie = Naturwissenschaft  überprüft nur nachweisbare Fakten Datenbasis sind Ereignisse, die man beobachten kann (durch Tierversuche, dann auf Mensch übertragen)

5 S-O-R- Behaviorismus / Neobehaviorismus Stimulus und Reaktion stehen nicht immer in simplem Zusammenhang  es sollten auch Variablen mit einbezogen werden, die nicht direkt beobachtbar sind O-Variablen: innerorganismische, zwischen S und R vermittelnde Variablen (z.B. Motiv, Emotion) z.B. Zeit ohne H2O (S)  Durst (O)  Häufigkeit des Hebeldrückens (R) Es werden möglichst viele beobachtbare Daten verwendet und möglichst wenige O-Variablen O-Variablen müssen durch Operationalisierung in klare Zusammenhänge mit beobachtbaren Daten gebracht werden (z.B. Angst: Fluchtreaktion) Vorläufer der heutigen kognitiven Psychologie, da mentale Konzepte in der Theoriebildung benutzt werden

6 Sinn der Einführung der mentalen O-Variable O-Variablen können Theorien vereinfachen, da weniger Wirkungs- beziehungen zwischen den einzelnen Variablen erklärt werden müssen Stunden ohne Wasser, trockenes Futter, Injektion v. Salzlösung  Durst  tolerierte Chininmenge, Häufigkeit des Hebeldrückens, konsumierte H2O-Menge

7 Radikaler Behaviorismus nach Skinner Verhalten ist abhängig von 3 Einflüssen: 1. Phylogenese  Organismen sind Selektionsprozessen durch ihre Umwelt ausgesetzt  das am besten adaptierte Verhalten besteht weiter 2. Ontogenese  Fähigkeit, im Laufe des Lebens auf veränderte Umweltbedingungen mit verändertem Verhalten zu reagieren  Konsequenz aus Phylogenese 3. Soziogenese  Tradierung gemeinschaftl. Verhaltensregeln: Kultur als Umweltadaptation einer Gruppe Verhalten kann auf alle Verhaltensebenen bezogen analysiert werden (z.B. auch Sprechen, Denken, Entscheiden)

8 Radikaler Behaviorismus: Ziele Erkennen allgemeiner Gesetze/Regeln der Verhaltens-modifikation konsequenter Verzicht auf mentale Konzepte in der Theoriebildung Ethische Implikationen: Freiheit, Würde und Moral als kulturelle Anpassungsleistungen Ethische Implikationen: Relativierung durch übergreifende biolog. Perspektive Ethische Implikationen: Optimierung von Adaptivität, Vermeidung von Leid

9 Tierversuche in der Forschung Pro: Tiere sind leichter verfügbar, billiger und nehmen an allen Versuchen konsequent teil Man kann ihre Vorerfahrungen besser einbeziehen Geringere ethische Bedenken Typisch menschliche Störeffekt (z.B Placebo-Effekt) werden ausgeschalten Prinzipielle Ähnlichkeit zum Menschen bei geringerer Komplexität Contra: eingeschränktes Verhaltensrepertoire (kein Sprechen, Lesen, Problemlösen) qualitativer Unterschied zum menschlichen Verhalten ethische Bedenken

10 Impliziert die Suche nach allgemeinen Kausalgesetzen des Lernens ein deterministisches Weltbild? -Determinismus: es gibt keinen freien Willen, selbst unser Verhalten ist festgelegt, Welt komplett durch Naturgesetze determiniert –Psychologie befindet sich im Mittel zwischen den Extremen: es gibt geltende Kausalgesetze, aber nicht immer und überall, sondern mit gewisser Wahrscheinlichkeit –Kausalgesetze gelten nur unter best. Bedingungen, d.h. sie sind nicht zwingend  impliziert kein det. Weltbild –Verhalten wird durch Gründe (nicht zwingend) erklärt, nicht durch Ursachen (zwingend, physikal. Natur)  Psychologie spricht von Tendenzen und Trends, nicht von zwingenden Vorhersagen

11 Habituation -einfachste, nicht-assoziative Form des Lernens, vglb. mit Gewöhnung –ein Reiz, der immer wieder wiederholt wird, ohne dabei Folgen am Individuum zu hinterlassen, führt dazu, das das betroffene Individuum immer weniger intensiv auf diesen Stimulus reagiert (z.B. Schreckreaktion) –Exp. 1: Marlin und Müller  Ratte in Stabilimeter-Käfig platziert. Wenn sie sich erschreckt, bewegt sich Boden. Führt zu Erzeugung von Strom  wenn nun ein lauter Ton in regelmäßigen Abständen präsentiert wird, nimmt Schreckreaktion immer mehr ab –Exp. 2: Dielentherg und McGregor  Ratten werden mit einem nach Katze riechendem Halsband konfrontiert  verstecken sich  bei mehrmaliger Wiederholung habituieren sie und verstecken sich nicht mehr

12 Geht Habituation auf Lernprozesse zurück? Wieso? -Ausschaltung von Alterativerklärungen: Erschöpfung, Ermüdung. Adaptation -Dielentherg & McGregor zeigten, dass Ratten (habituiert auf Katzengeruch) gleich hohe Fluchtreaktion wie anfangs zeigten, wenn sie mit einem neuen Stimulus (Bild einer Katze) stimuliert werden  schließt Erschöpfung aus –Marlin & Müller zeigten, dass weder Ermüdung noch Adaptation in Frage kommen  falls adaptatiert, hätte Ratte den Ton immer schlechter gehört dann auch weniger reagiert  gegen Ermüdung spricht, dass die Ratte im 2. Durchgang einen „Ersparniseffekt“ zeigt, d.h. dass ihre Fluchtreaktion viel schneller und sehr früh nachlässt –> spricht für Lerneffekt –Habituation ist stimulus-spezifisch: nicht die Reaktion habituiert,sondern die Reaktion als Folge des Stimulus  d.h. es sinkt nur die Fähigkeit des Stimulus, die Reaktion auszulösen (nicht die Reaktionsfähigkeit an sich)  d.h. dass Stimuluswechsel o. Kombination alter u. neuer Reize zu einer normal- starken Reaktion führen, wie Groves & Thompson feststellen: 2 Gruppen Ratten hören 14 x einen Ton, bis habituiert. Die Exp.Gruppe sieht nun ein Blitzlicht vor dem Ton und reagiert mit Schreck.Kontroll-gruppe sieht kein Blitzlicht vor Ton und reagier nicht mehr mit Schreck.

13 Funktion der Habituation für die adaptive Verhaltenssteuerung –Vermeidung von Ablenkung und Ressourcenvergeudung durch Reaktionen auf irrelevante Reize –Einsparung von Energie, die dann für wichtigere Reize zur Verfügung steht –geringe Habituationsgeschwindigkeit = Prädiktor für Intelligenzdefizit u. Fehlentwicklung

14 Der Coolidge-Effekt –Wechsel des Stimulus führt zu erneut großer Reaktion und durchbricht die Habituation  „reinstatement“ –„Wie oft begattet ein Hahn Hühner? – „Dutzende Male am Tag“ --„Immer die gleiche Henne?“  „nein, jedes Mal andere“ –Exp. Schein & Hale, 1974: Tests mit Ochsen, die Kühe begatten sollen  Kopulationsbereitschaft lässt nach, wenn immer dieselbe Kuh (Habituation), aber wenn andere Kühe oder anderer Kontext, geht’s doch

15 Analyse basaler Wahrnehmungs- und Diskriminationsleistungen bei Säuglingen oder Tieren –Habituation als Forschungsmethode zur Erfassung von Diskrimationsleistungen i.d. Säuglingsforschung (können nicht reden) –Diskrimination = Fähigkeit, 2 Reize zuverlässig voneinander zu unterscheiden –Studie von Johnson und Aslin 1995: Säuglingen wird wiederholt der auf der linken Seite abgebildete Stimulus gezeigt, bis ihre Orientierungsreaktion durch die Habituation nachlässt. Dann wird mit den beiden Stimuli (ähnlich dem ersten, aber der Balken fehlt, eins ist durchgezogen, eins unterbrochen) der Generalisierungsgrad getestet  auf den Stimulus, den die Babies als subjektiv gleich empfinden, reagieren sie mit fortgesetzter Habituation, auf den anderen nicht (Dishabituation)  Erg: können schon früh diskriminieren, ob Dinge verdeckt sind oder nicht (OR bei unterbrochenem Balken)

16 Welche Rolle spielen Reizintensität und Vorhersagbarkeit für die Stärke von Habituationseffekten? Merke:  Reizintensität: bei sehr lauten, intensiven Tönen ist Habituation schwächer & langsamer  Vorhersagbarkeit: je vorhersagbarer & wenig überraschender der Reiz, desto stärker die Habituation Experiment von Davis & Wagner, 1969: 4 Gruppen Ratten hören jeweils 750 Töne: 1. Gruppe konstant 120 dB, 2. Gruppe konstant 100 dB, 3. Gruppe aufsteigend dB und 4. Gruppe wie Gruppe 3, aber in gemischter Reihenfolge (random- order) nach 750. Ton wurden alle 4 Gruppen mit 120 dB Ton konfrontiert & Schreckreaktion gemessen Ergebnisse: - Gruppe 1 erwartete einen 120 dB- Reiz → keine erhöhte Reaktion - Gruppe 3 erwartete ebenfalls lauter werdenden Ton → keine Schockreaktion  selbst wenn Töne mit wenig Intensität kontinuierlich gesteigert werden, zeigen sie keine Reaktion auf 120 dB-Ton, da Töne als ähnlich zum vorhergehenden empfunden werden (Generalisierung) = perfekte Habituation - für Gruppe 2 und 4 war 120 dB-Ton unerwartet, nicht vorhersagbar → starke Reaktion (Dishabituation)  Schreckreaktion der Gruppe 2 nimmt während ersten 750 Töne wesentlich schneller und stärker ab als bei Gruppe 1 (weil schwächere Habituation bei intensiveren Reizen)

17 Kurz- vs. langfristige Habituation Spontanerholung & Lernersparnis Dissoziationseffekte in Abhängigkeit vom Interstimulusintervall kurzfristige Habituation  Habituationseffekt steigt schnell an, dauert nur wenige Minuten und verschwindet bereits nach 1 Trainingsdurchgang  2 sec ISI langfristige Habituation  Habituationseffekt steigt langsamer an, bleibt aber länger bestehen (Tage – Wochen), tritt auf bei mehrmals wiederholtem Habituationstraining  16 sec ISI Spontanerholung  erneutes Auftreten der OR bei neuem Training, obwohl bereits vorher habituiert; scheint anfänglich genauso stark zu sein wie beim 1. Lernen, aber Lernersparnis  schon im 2. Durchgang des neuen Trainings lernt Tier schneller, d.h. es habituiert schneller, früher und stärker  „Ersparniseffekt“

18 Untersuchung von Davis (1970) zur Dissoziation kurz- und langfristiger Habituation 2 Gruppen Ratten werden habituiert auf Töne mit zunehmendem Zeitabstand zwischen den Tönen (ISI): 1. Gruppe hört 1x 10 Töne im Abstand von 2 s ISI 2. Gruppe hört 1x 10 Töne im Abstand von 16 s ISI Messung der Schreckreaktion zeigt, dass Gruppe 1 viel schneller kurzfristig habituiert nach 1 min. Pause werden dann erneut 10 Töne präsentiert Messung der Schreckreaktion zeigt, dass 2. Gruppe zwar wesentlich langsamer habituiert hat, dafür aber stärker und langfristiger

19 Überraschungstheorie der Habituation (Wagner) Ereignis ist überraschend, wenn noch nicht im KZG gespeichert  selbstgeneriertes Priming = wird Stimulus präsentiert, wird er im KZG aktiviert  Retrieval-generiertes Priming = wird ein mit dem Stimulus assoziierter Stimulus gezeigt, aktiviert er den Stimulus im KZG Keine Überraschung führt zu Habituation  kein Assoziationslernen Exp. Wagner (1976): Ratte verbringt Zeit zwischen Training und Test im Exp.käfig ohne Töne  Kontext-Ton-Assoziation wird gelöscht  keine langfristige Habituation Exp. Davis (1970):  kurzes ISI führt zu schnellerer Habituation im Training, da so Stimulus permanent im KZG erhalten  keine langfristige Habituation, da keine Assoziation zwischen Stimulus und Kontext gebildet wird  langes ISI führt zu langsamerer Habituation, Stimulus bleibt nicht im KZG, es kommt zur Assoziationsbildung zw. Stimulus und Kontext

20 Typischer Verlauf emotionaler Reaktionen und ihrer Veränderung nach häufiger Wiederholung 1.Höhepunkt (intensive Glücks-, Angst- oder Ärgergefühle) 2. Abflachen auf konstantes Niveau 3. Umkippen der Reaktion nach Aussetzen des Reizes 4. Rückkehr zur Ausgangslage  bei häufiger Wiederholung des Stimulus wird Verlauf weniger stark ausgeprägt sein

21 Opponent-Process-Theory (Solomon & Corbit, 1974) Emotionale Reaktionen bestehen aus 2 Prozessen: a-Prozess und b-Prozess A setzt unmittelbar ein, verharrt am Maximum und hat abruptes Ende; ist für die erste Reaktion verantwortlich und erreicht schnell den Höhepunkt, bleibt dann relativ konstant B setzt verzögert ein, verharrt am Maximum und klingt allmählich aus; antagonistisch zu A, bedingt „Nachreaktion“ ; wird nur in Verbindung mit A-Prozess in Gang gesetzt, entsteht und vergeht langsamer Hört Stimulus auf, fällt A auf 0 und B bleibt übrig Veränderung = Ergebnis einer Zunahme der Stärke des B- Prozesses Bei Wdh. tritt B-Prozess schneller ein und erreicht höheres Maximum, lässt nach Aussetzen des Stimulus langsamer nach (während A-Prozess immer gleich bleibt)

22 Empirische Belege für die Opponent-Process-Theory 1.Toleranz & Entzugserscheinungen bei fortgesetztem Drogenkonsum  Glücksgefühl als A-Prozess, cold-Turkey als B-Prozess  je länger man sie nimmt, desto stärker wird B- Prozess 2.Church et al., 1966: Reaktionen von Hunden auf Serie von Elektroschocks  A-Prozess: Furcht, B-Prozess: Winseln, Freude (dass es aufhört) 3.Epstein, 1967: Veränderung der emotionalen Reaktion bei Fallschirmspringern  A: schockartige Angst, B: Euphorie

23 Funktion der b-Prozesse für die Verhaltensregulation bewirken, dass unsere Emotionen nicht überhand nehmen  Balance der Gefühle (nur A wäre Eskalation der Gefühle) Antagonisten zum A-Prozess: sonst würde unsere Reaktion extrem ausfallen  emotionale Extremerlebnisse erschöpfen unsere körperlichen Ressourcen

24 Versuchsablauf bei Pavlov´s Experimenten zur klassischen Konditionierung US = unkonditionierter Stimulus, (Futterpellet) UR = unkonditionierte Reaktion,reflexhaft (Speichelfluss) NS = neutraler Stimulus (Glockenton) OR = Orientierungsreaktion CS = konditionierter Stimulus (wenn NS und US gemeinsam wiederholt werden, wird der NS zum CS, der nun seinerseits eine CR auslöst) CR = konditionierte Reaktion (Speicheln auf Glockenton) Testreihe an fixierten Hunden  verabreichte ihnen US Futterpellets, auf die sie mit UR reflexhaftem Speicheln reagierten  um herauszufinden, ob die Tiere auch auf einen NS mit UR Speicheln reagieren würden, wenn dieser wiederholt mit Futterpelletgabe kombiniert würde, ließ er zu jeder Futterpelletgabe einen NS Glockenton erklingen  nach genügend Durchgängen reagierten die Hunde auf den Glockenton allein mit Speichelfluss, d.h. sie haben eine assoziative Verbindung hergestellt und der NS ist zum CS geworden

25 Welche Faktoren beeinflussen die Stärke der Konditionierung? 1.Kontiguität  zeitliche und örtliche Nähe 2er Reize, hier: US Futter & CS Glockenton  kurze Verzögerung v. 1 s führt zu schnellerer und stärkerer Konditionierung  sollten nicht gleichzeitig präsentiert werden 2.Kontingenz  Vorhersagewert eines CS: P(US/CS) - P(US/ nichtCS)  Wahrscheinlichkeit, mit der der US (Futter) nach dem CS (Glocke) während d. Konditionierungsphase auftaucht  CS (Glocke) muss valider Prädiktor des Auftretens des US (Futter) sein 3.Salienz des CS  je auffälliger und intensiver ein CS (Glockenton), desto stärker die CR (Speichel) 4.Stärke des US  je stärker ein US (Futter) desto stärker und schneller die CR Speichel 5.Preparedness  am effektivsten wird konditioniert, wenn Stimuli evolutionär relevant sind (nach Seligman)

26 Konditionierte emotionale Reaktion (CER) emotionale Reaktionen werden häufig von bestimmten Stimuli ausgelöst und das normale Verhalten wird unterdrückt  Reaktion, die aufgrund eines CS ausgelöst wird, der normalerweise keine solche Reaktion bewirken wurde die reaktionsauslösenden Eigenschaften des Stimulus werden dabei durch Erfahrung erworben da emotionale Reaktionen nicht willkürlich kontrollierbar sind,unterliegen auch sie der klass.Konditionierung  schneller Aufbau z.B. löst der Anblick des Uni-HG Angst aus, wenn man Uni mit neg. Klausurerfahrungen assoziiert) Exp Kamin 1968.: Ratten im Exp.käfig hören einen Ton, auf den 15 s später ein Schock folgt  glz. Haben sie sie separate Aufgabe, einen Hebel zu drücken, um evtl. gefüttert zu werden wenn nun der Ton (NS) präsentiert wird, unterbrechen Ratten kurz das Hebeldrücken (OR), dann folgt der CS Schock  schon nach wenigen Kombinationen nimmt das Hebeldrücken ab, sobald der CS Schock auftritt (d.h. sie verlieren das Interesse an Futter, weil CS negative emotionale Reaktion auslöst)  dabei gilt: das Ausmaß, in dem das Hebeldrücken unterbleibt, gibt Auskunft über Stärke der Konditionierung

27 Wie lässt sich konditionierte Verhaltensunterdrückung quantifizieren? über den Unterdrückungsindex (Q) Q = Verhaltenshäufigkeit unter CS / Verhaltenshäufigkeit unter CS + Verhaltenshäufigkeit unter Nicht-CS Q = 0,5  keine Unterdrückung Q = 0,0  perfekte Unterdrückung z.B. 10xHebeldrücken unter Schock / 10 x Hebeldrücken unter Schock + 40 x Hebeldrücken unter Nicht-Schock = 10/50 = 0,02

28 Übliche Prozeduren der Konditionierung 1.Verzögerte Konditionierung  CS Ton wird mit zeitl. Abstand vor US Futter präsentiert  wenn CS dazu auch noch länger präsentiert wird, findet schnell Konditionierung statt 2.Simultane Konditionierung  CS Ton und US Futter werden glz. präsentiert  keine Konditionierung, da der CS keine Information besitzt, die über die des US hinausgeht 3.Zeitliche Konditionierung  US Futter wird in regelm. Abständen ganz allein präsentiert  die im Zwischenintervall verstrichene Zeit dient als CS  wenn verschieden, kommt CR Speicheln auch ohne US Futter 4.Rückwärtsgerichtete Konditionierung  CS Ton wird erst nach US Futter präsentiert  keine Konditionierung, weil CS keinen Informationswert hat  fungiert vielmehr als Ankündigung des Endes des US 5.Standard-Paarung  kurzer zeitl. Abstand: CS  2s  US  stärkste und schnellste Konditionierung

29 Wie verändert sich die CR im Verlauf der verzögerten Konditionierung?  CS Ton wird mit zeitlichem Abstand vor US Futter präsentiert  wenn CS dazu auch noch länger präsentiert wird, findet schnell Konditionierung statt  anfangs beginnt CR Speicheln sofort nach CS Ton, später setzt sie später ein, da das Tier gelernt hat, dass zwischen CS und US Pause liegt

30 Verlauf der Konditionierung während der Akquisition Akquisition = Erwerbsphase, in der eine VPn zum 1. Mal mit der Paarung CS + US konfrontiert wird Geschwindigkeit des Erwerbs und Stärke der CR sind abhängig von Salienz des CS und von Stärke /Intensität des US Stärkere Stimuli führen zu schnellerer Konditionierung und damit zu höherer Asymptote Wahrscheinlichkeit des Auftretens einer CR nimmt in den ersten Durchgängen stark zu und nähert sich dann einem Plateau an (stabiles Maximum)

31 Verlauf der Konditionierung während der Extinktion Extinktion = Löschung der assoziativ gebildeten CS-US- Kombination Voraussetzung für Löschung: entgegen gesetzte Erfahrung, d.h. CS muss mehrmals ohne US auftreten (Zeit allein genügt nicht) Löschung erfolgt allmählich dabei nimmt die CR zu Beginn der Extinktionsphase stark ab und schwächst sich gegen Ende immer langsamer ab bis sie vollständig verschwindet ! an jedem neuen Tag der Extinktion ist die CR zu Beginn noch stärker als am Ende der Extinktionsphase des Vortages (Ursache: Spontanerholung)

32 Was spricht dagegen, dass bei der Extinktion das Lernen rückgängig gemacht wird? entstandene Assoziationen werden nicht einfach „ausradiert“, da 1. Spontanerholung  an jd. neuem Tag der Extinktionsphase ist CR zu Beginn noch stärker als am Ende des Vortages  umso ausgeprägter, je mehr Zeit zwischen 1. und 2. Extinktionsphase liegt (legt nahe, dass CS-US-Assoziation nicht gelöscht ist) 2. Disinhibition  wenn Extinktion bereits so weit fortgeschritten, dass CS Glocke keine CR Speicheln mehr auslöst und nun wenige s vor dem CS ein neuer Stimulus Licht präsentiert wird, kann es sein, dass auch der alte CS Glocke wieder die CR Speicheln auslösen kann (die verhinderte Reaktion (Inhibition) wird wieder erlernt (Disinhibition) 3. schneller Wiedererwerb und Ersparniseffekt  wenn eine VPn eine klass. Konditionierung mit Akquisitionsphase und anschl. Extinktionsphase durchläuft, ist Lernerfolg bei einer weiteren Akquisitionsphase mit denselben Stimuli wesentlich größer  Lerntempo wird schneller

33 Was ist ein CS-? CS- = inhibitorischer CS, konditionierter Inhibitor CS, der das Auftreten einer CR verhindert oder diese zumindest reduziert kündigt Ausbleiben des US an

34 Methoden, um einen Stimulus als CS- zu etablieren 1.CS- wird mit bereits etablierten CS+ während der Extinktion präsentiert  Assoziation Ton (CS+) –Speicheln (CR) soll gelöscht werden  I. CS Ton + CS Licht  CR Speichel  II. CS Ton + CS Licht  CR Speichel weniger  III. CS Ton + CS Licht  CR Speichel noch weniger  durch die Wiederholungen wird CS Licht zum CS-, der voraussagt, dass dem CS Ton kein US Futter mehr folgt 2. conditioned inhibition training : CS+/CS- ohne US präsentieren; dann CS allein mit US präsentieren I. CS Ton + CS Licht  ? II. CS Ton + US Futter  CR Speichel  nach einigen Wdh. ist CS Ton exzitatorisch und CS Licht inhibitorisch

35 Methoden, mit denen man zeigt, dass ein CS zu einem CS- geworden ist 1.Summationstest  zeigt, dass ein CS- nicht nur die CR als Reaktion auf einen CS- inhibieren kann, sondern auch die CR auf einen anderen CS verhindern kann, der noch nicht mit ihm kombiniert wurde I. CS1+ (Ton)  US (Futter)  CR (Speicheln) (CS1 wird etabliert, so dass CS1+ zuverlässig CR auslöst) II. CS2+ (Licht)  US (Futter)  CR (Speicheln) (CS2+ wird etabliert III. CS1+ (Ton) + CS- (Schock)  nichtCR 1.Retardationstest  Verzögerungstest: man misst die Zeit, die nötig ist, um aus einem CS+ einen CS- zu machen; wenn der CS vorher ein CS-war, sollte es länger dauern, da ja erst seine inhibitorischen Eigenschaften aufgelöst werden müssen

36 Generalisierungsgradient Generalisierung = auf 2 verschiedene Stimuli wird mit ähnlichem o. gleichem Verhalten reagiert Generalisierungsgradient= Kurve, die in einem Koordinatensystem mit x = Teststimuli und y = Frequenz der Reaktion nach Einzeichnung entsteht  Abbild der Generalisierung

37 Welcher Verlauf ist zu erwarten, wenn man von 2 unterschiedlichen Stimuli parallel einen als CS+ und einen als CS- etabliert? VPn muss erst diskriminieren zwischen CS+ und CS-, d.h. zu erst steigt CR für beide Stimuli an nach mehreren Durchgängen setzt Diskriminierung ein, d.h. CR steigt bei CS+ und fällt bei CS- ! Gilt nur, wenn beide deutlich unterscheidbar

38 Experimentelle Neurose entsteht, wenn ein Konflikt zwischen inhibitorischer und exzitatorischer Konditionierung besteht wenn VP´n CS- von CS+ nicht mehr eindeutig unterscheiden kann, kollabiert das Lernsystem z.B. wird Hunden ein Kreis als CS+ präsentiert, auf den sie mit US Futter belohnt werden; danach wird ihnen eine Ellipse als CS- gezeigt, auf die sie kein US Futter erhalten  wenn nun Ellipse und Kreis immer ähnlicher werden, rasten Hunde aus

39 Furcht vs. Angst,Phobie Furcht  begründet, nachvollziehbar, rational erfassbar, objektbezogen Angst  diffus, subjektiv: etwas, das Angst auslöst, bekommt u. U. Signalcharakter Phobie  starke situations- o. objektbezogene Ängste, meist unbegründet und rational nicht erklärbar, subjektiv, eigentliche Ursache verschwindet oft hinter furchtbesetztem Objekt  zufällige Kopplungen zw. best. Reizen und unangenehmen Zuständen  konditionierbar mit schwer zu löschendem Signalcharakter

40 Wenn zufällige Kopplungen zw. best. Reizen und unangenehmen Zuständen für die Entstehung v. Phobien verantwortlich sind, warum verschwinden diese dann nicht von allein durch Extinktion? Extinktion findet nur statt,wenn derselbe CS in ähnlichem Kontext stattfindet, ohne dabei aber die CR (z.B. Angst) auszulösen da die meisten Phobiker komplett Situationen meiden, in denen ihre Phobie auftreten könnte, kann auch keine Löschung statt finden begibt sich ein Phobiker doch in die Situation, bleibt er von vorneherein auf das Negative fixiert (selbsterfüllende Prophezeiungen)

41 Systematische Desensibilisierung nach Wolpe Konstruierung einer Angsthierarchie mit Abstufungen  individuelle Bewältigungskonzepte Muskelentspannungstraining in Angstsituationen, bis Angst weg ist  solange in einer Stufe der Bewältigung bleiben, bis entspannt Kombination von 1 und 2 in immer höheren Anforderungsstufen

42 Trainingsprogramm zur Reduzierung des Süßigkeitenkonsums Süßes wird gekoppelt mit aversivem Reiz (z.B. Tabletten, die Übelkeit auslösen, milder: Bestrafung) Wenn mehrmals wiederholt, wird durch negative CR der Konsum von Süßem gemieden

43 Verhinderung einer globalen Nahrungsmittelaversion nach Chemotherapie Chemo bewirkt Übelkeit, die mit vorher genossenen Speisen assoziiert wird (konditionierte Geschmacksaversion) Einführung eines markanten Geschmacksstoffes als CS (der in normalen Lebensmitteln nicht vorkommt) vor der Chemo einzunehmen  verhindert Transfer auf andere Speisen

44 Infektionsschutz in Stressphasen unter neutralen Umständen wird ein CS mit einem immunaktivierenden US gekoppelt in Stressphasen reicht dann Gabe des CS aus, um die Wirkung des US hervorzurufen z.B.: Interferon-Injektion  aktiviert & stärkt Immun- system CS löst bald allein die Immunstärkende Reaktion (jetzt CR) aus und kann Organismus in Stressphasen gegen Infektion schützen

45 Kontingenz und 4 Felder-Tafel Kontingenz = Vorhersagewert eines CS Statistisches Wahrscheinlichkeitsmaß, dass 2 bedingte Wahrscheinlichkeiten miteinander verrechnet Q = P(US/CS) – P(US/nichtCS) > 0: hohe Vorhersagekraft = 0: keine Vorhersagekraft (heben sich auf < 0: niedrige Vorhersagekraft (hemmend) 4-Felder-Tafel = Kreuztabelle absoluter Häufigkeiten  zur Berechnung konkreter Wahrscheinlichkeiten A=3 US/CS B=0 US/nichtCS C=0 nichtUS/CS D=? nichtUS/nichtC S P(US/CS) = A / A+C P(US/nichtCS) = B / B+D Q = P(US/CS) – P(US/nichtCS)

46 Wie müssen die bedingten Wahrscheinlichkeiten von US/CS bzw.US/nichtCS beschaffen sein,damit exzitatorische bzw. inhibitorische Konditionierung stattfindet? -P(US/CS) > P(US/nichtCS)  exzitator. -P(US/CS) < P(US/nichtCS)  inhibitor. -P(US/CS) = P(US/nichtCS)  keine Kond.

47 Wie lassen sich Kontingenzeffekte von Effekten der Häufigkeit einer CS-US-Paarung experimentell trennen? Kontingenz: Wahrscheinlichkeit, mit der der US (Futter) nach dem CS (Glocke) während d. Konditionierungsphase auftaucht Differenz zw. Experimentalrate (bei der der US mit dem CS gekoppelt wird) und Basisrate (bei der der US allein auftritt) (nach Formel) je höher die Basisrate, desto geringer der Grad an Konditionierung es kommt immer dann zu Konditionierung und Lernen, wenn der CS die Wahrscheinlichkeit des Auftretens des US erhöht Gelernt wird also aus der Differenz zwischen Paarung und Nichtpaarung, nicht aus der Häufigkeit der Paarungen Exp. Rescorla(1968)  beim Versuch zur Dissoziation von Kontingenz- u. Häufigkeitseffekten wurden 3 Gruppen Ratten gebildet mit I. P(US|CS) = 0.4; II. P (US/CS) 0.2 und III. P(US/CS)= 0,1  Dann wurde Grad der Konditionierung untersucht in Abhängigkeit von der Basisrate P(US| ¬ CS)  es zeigte sich, dass die Konditionierung umso besser war, je größer die positive Differenz P(US|CS) - P(US| ¬ CS) und somit die Kontingenz  Des weiteren fand keine Konditionierung mehr statt, sobald P(US|CS) gleich der Basisrate und somit keine Kontingenz mehr vorhanden war

48 Übererwartungseffekt Kombination zweier bereits etablierter CS mit dem gleichen US führt zur Abschwächung der CR auf die einzelnen Stimuli Z.B. I. CS1 (Ton) + CS2(Licht) werden unabhängig voneinander auf den gleichen US (Futter) konditioniert II. gemeinsame Präsentation von CS1 (Ton) und CS2 (Licht) mit anschl. US (1 Futter) = Übererwartung (eigentlich werden 2 Futterpellets erwartet) Dadurch erfahren beide CS inhibitorische Konditionierung Testphase: CS1(Ton) und auch CS2 (Licht)  schwächere CR

49 Blockierungseffekt Kopplung eines neuen CS2 (TON) mit bereits etabliertem CS1 (Licht) bei gleichem US bewirkt keine Konditionierung bzgl. des CS2, weil dieser durch den CS1 blockiert wird Exp. Kamin (1968): - 2 Gruppen Ratten 1. DG: - EG  CS (Licht) + US (Schock)  CR (Flucht) - KG  2. DG: beide  CS (Licht) + CS2 (Ton) + US (Schock)  CR (Flucht) 3. DG: - EG  CS2 (Ton)  keine CR, da durch CS1 blockiert - KG  CS2 (Ton)  starke CR

50 Zentrale Ergebnisse gegen die These, dass die Stärke einer CR proportional zur Häufigkeit zeitlich benachbarter CS-US-Paarungen ist 1.Übererwartung  Kombination zweier bereits etablierter CS mit dem gleichen US führt zur Abschwächung der CR auf die einzelnen Stimuli  entscheidend ist Kontingenz 2.Überraschungseffekt = Stärke der Abweichung von erwartetem Reiz und tatsächlichem Reiz; bestimmt laut Rescorla die Stärke der Konditionierung 3. Überschattung  ein CS1 wird in Gegenwart eines salienteren CS2 nicht konditioniert 4. Blockierung  Kopplung eines neuen CS2 (TON) mit bereits etabliertem CS1 (Licht) bei gleichem US bewirkt keine Konditionierung bzgl. des CS2, weil dieser durch den CS1 blockiert wird

51 Durch welche Maßnahme lässt sich ein Standard-Blockierungseffekt vermeiden? Blockierungseffekt: Kopplung eines neuen CS2 mit bereits etabliertem CS1bei gleichem US bewirkt keine Konditionierung bzgl. des CS2, weil dieser durch den CS1 blockiert wird Vermeidbar, wenn der CS2 zusätzlich zur Information des CS1 noch eine ganz neue Information bringt (z.B einen etwas stärkeren US nach sich zieht) ein CS2 muss also wiederum überraschend sein und Informationswert besitzen, um nicht blockiert zu werden

52 Formel des Rescorla-Wagner- Modells (1972) mathematische Formulierung des Konzepts der Überraschung sagt Ergebnisse der klassischen Konditionierungsverfahren voraus Grundannahme: bei jedem Lerndurchgang kann exzitatorische, inhibitorische oder keine Konditionierung stattfinden 3 Faktoren bestimmen, welche der 3 Konditionierungen stattfindet: –1. von der VPn erwartete Stärke des US:  V –2. Intensität des US  A (kann nicht <0 sein) –3. Salienz des CS  S (0 ≤ S ≤ 1)  je salienter ein Reiz, desto stärker die Konditionierung ^ Vcsi = Scsi x (Aj –Σ Vcsi) ^ = Veränderung d.Stärke eines CS bei einem einzigen Konditionierungsdurchgang Σ Vcsi = Summe der US-Erwartungen aller anwesenden CSi

53 Akquisition: das Rescorla-Wagner- Modell immer, wenn Intensität (A) des aktuellen US > als Erwartung des US (V), werden alle Stimuli, die mit US kombiniert werden, exzitatorisch konditioniert Angenommen: S= 0,2 (Intensität des CS) A= 100 (Stärke des US) I.^ Vcsi = Scsi ・ (Aj – Σ Vcs) = 0,2 x (100-0) = 20  0, weil Tier nichts erwartet in der Erwerbsphase II. = 0,2 X (100-20) = 16 III. = 0,2 x (100 – 36) = 12,8  erkennbar, dass Differenz mit jd. DG kleiner wird  asymptotischer Verlauf  Konditionierung wird mit jd. DG weniger

54 Extinktion: Rescorla-Wagner- Modell Immer, wenn die Intensität des aktuellen US der Erwartung des Individuums entspricht, findet Extinktion statt S = 0,2 A = 0 (Stärke des US muss 0 sein, da US ja in der Löschphase weggelassen wird) Σ Vcs = 90 (muss nah an 100 sein, da das Tier ja US erwartet) ^ Vcsi = Scsi ・ (Aj – Σ Vcs) = 0,2 x (0-90) = 18 = 0,2 x (0-72) = -14,4 = 0,2 X (0-57,6) = -11,52  Anfangs nimmt Konditionierung stark ab und wird dann immer kleiner

55 Latente Inhibition Lernverzögerung bei der Konditionierung wird ein Reiz mehrmals ohne Konsequenz dargeboten, bevor er dann in einer Konditionierungsphase als CS mit einem US gepaart wird, schwächt sich seine Assoziabilität mit dem US ab dies ist kein Inhibitionsphänomen, weil der CS kein CS- ist, sondern generell in seiner Konditionierbarkeit reduziert ist  d.h. der CS sagt nicht voraus, dass der US nicht auftaucht

56 S-S- und S-R-Erklärungen der klassischen Konditionierung S-S- Erklärung  konditionierte Reaktion aufgrund einer Verbindung 2er Reize (direkt) S-R-Erklärung  konditionierte Reaktion aufgrund einer Verbindung zwischen Reiz und Reaktion (indirekt) 3 Experimentaldesigns zur Unterscheidung: 1. Sensorische Präkonditionierung (Konorski, 1948)  1. CS1 Glocke kündigt vorab CS2 Summer an: CS1  CS2  2. Lernphase: CS1 und US werden assoziiert: CS1  US  CR 3. Testphase: CS2 kann jetzt CR auslösen  wg. Assoziation CS1 - CS2 kommt es zur CR  S-S-Assoziationen

57 US- Abwertung /Umwertung 1.CS-US-Verbindung lernen: CS  US  UR bzw. CR solange paaren, bis auf den CS die CR folgt, ohne dass US nötig ist: CS  CR 2. US-Bedeutung ändern, ohne CS zu präsentieren (z.B. bei US Futter: ausgiebig füttern,oder auf Schock habituieren) 3. noch mal: 1. CS  US  UR CS  CR US  CR 2. US  ¬ UR 3. CS  ? x (/ sehr geringe CR)  spricht für S-S-Theorie, weil US andere Bedeutung bekommt und so die CR auf den CS auch total verändert wird

58 Konditionierung zweiter Ordnung  Phasen 1 und 2 der sensorischen Präkonditionierung, nur vertauscht: 1. Lernphase auf CS1 : CS1  US1  CR 2. CS1 +CS2 koppeln (CS2 auch m. CR1 gekoppelt) :CS1  CS2 3. CS1 kündigt jetzt anderen US an  andere CR: CR2 CS1  US2  CR2 4. welche CR löst jetzt CS2 aus? CR1 oder CR2?  CR2!: CS2  CR2  spricht für SS und SR

59 Occasion setting ein Stimulus CS1 beeinflusst die CR auf einen Stimulus CS2 und heißt deshalb Occasion setter, weil er die Bedingung ist, dass die CR auf den CS2 exzitatorisch oder inhibitorisch wird Studie CS1= Licht CS2 = Ton US= Futter 1.neben dem CS2 Ton wird ein weiterer Stimulus CS1 Licht als Occasion setter präsentiert  dabei ist dieser die Bedingung, dass die CR exzitatorisch oder inhibitorisch wird 2. nur, wenn der CS2 Ton mit dem vorangehendem CS1 Licht präsentiert wird, folgt auch der US Futter (wird der CS2 Ton dagegen allein präsentiert, folgt kein US Futter) 3. CS1 bzw. OS hat Schalterfunktion und moduliert den Zusammenhang zwischen CS2 Ton und US Futter

60 Wie kann man ausschließen, dass es die spezifische Kombination von CS und OS ist, die als eigenständiger CS eine CR hervorruft? Exp. Davidson & Rescorla OS1  CS1  CR1 o. OS2  CS1  CR1 OS2  CS2  CR2 o. OS1  CS2  CR2 Occasion setter sind austauschbar und verändern dennoch in jedem Fall die CR, d.h. es kann nicht an der spezifischen Kombination eines best. OS mit dem CS liegen

61 Kompensatorische CR -CR, die mit der Anzahl der Wiederholungen des CS in ihrer Stärke abnimmt -Ist das Gegenteil der UR und neigt dazu, diese zu kompensieren -z.B. kontextspezifische Drogentoleranz (Siegel, 1975)  Morphium hat abnehmenden analgetischen Effekt  Kontext, in dem man es nimmt, wird zum CS  d.h. Morphium wirkt nach einiger Zeit im gleichen Kontext nicht mehr  Aufhebung des Toleranzeffekts, wenn Droge in neuem Kontext benutzt wird (CS2)  z.B. paradoxer Drogentod

62 Wie erklärt man sich, dass nach wiederholter Injektion von Morphium nicht nur dessen analgetische Wirkung nachlässt, sondern dass auch eine Salzwasserinjektion zu einer erhöhten Schmerzempfindlichkeit führt? -Siegel: Exp. mit Ratten auf heißer Herdplatte  wenn zu heiß, leckten sie sich die Pfoten -impfte ihnen wiederholt Morphium bis die Ratten die Herdplatte wieder als genauso schmerzhaft wie ohne Morphium empfanden, weil die analgetische Wirkung nachließ -impfte er ihnen statt Morphium Salzlösung, reagierten Ratten erstaunlicherweise mit genauso hoher Schmerzempfindlichkeit -CS: Spritze  US: Morphium  CR: kompensatorische CR: höhere Schmerzempfindlichkeit -d.h. die Ratten reagierten nicht auf das Morphium, sondern auf den CS Spritze  deshalb reagieren sie mit gleich hoher Schmerzempfindlichkeit -  Nachweis, dass keine Habituation auf Morphium stattfindet

63 Conditioned Opponent Theory (Schull, 1979) baut auf Solomon & Corbits Theorie auf, nach denen eine typische emotionale Erfahrung aus a und b- Prozess besteht neu: ein b-Prozess wird nicht durch Wiederholung gestärkt oder durch fehlende Wiederholung geschwächt, sondern:  Kontext wirkt als CS  löst b-Prozess aus, verstärkt ihn  wirkt a-Prozess entgegen  nur b-Prozesse sind konditionierbar

64 Wann entspricht bei der klass. Konditionierung die CR der UR und wann ist sie eher ihr Gegenteil? Sometimes opponent theory (Wagner, 1981) CR ist in manchen Fällen das Gegenteil der UR) und in anderen Fällen ähnelt sie ihr CR ähnelt UR, wenn CR monophasisch und keine b-Prozesse vorhanden (z.B. Lidschluss: nur a-Prozess, Lid kann sich nur schließen: geht nicht weiter drüber oder drunter) CR ist Gegenteil von UR, wenn CR biphasisch und b-Prozesse vorhanden (z.B. Reaktion auf Elektroschocks :steigende Herzfrequenz: a steigt und b fällt unter ursprüngl. Rate)

65 Experimenteller Nachweis, dass trotz unterschiedlichen ISI bei der Konditionierung der Geschmacksaversion der CER die gleichen Lerngesetze wirksam sind? Exp. Baron, Kaufmann, Fazzini  CER: Wirkung der Verzögerung zwischen Hebeldrücken und Schock  mit zunehmender Verzögerung verhinderte Bestrafung das Hebeldrücken immer weniger, d.h. je länger ISI zwischen Hebeldrücken u. Schock, desto öfter wurde Hebel trotz folgenden Schocks gedrückt Exp. Andrews, Braveman  Geschmacks-Aversions-Lernen: Wirkung der Verzögerung zwischen Aufnahme v. Saccharinlösung und Giftinjektion  mit zunehmender Verzögerung verringert Giftgabe die Aufnahme von Saccharinlösung immer weniger, d.h. je länger ISI zwischen Giftgabe und Saccharingabe ist, desto eher tranken die Ratten wieder Saccharin ähnlicher Verlauf bei unterschiedl. Zeitlicher Skalierung  gleiches Lerngesetz beide entsprechen Prinzip der Kontiguität: je kürzer ISI zwischen Stimulus und aversivem Stimulus, desto stärker die Reaktion

66 Äquipotenzannahme der klassischen Konditionierung CS und US können beliebig miteinander gekoppelt werden gegebener CS ist in allen Kontexten ein gleich guter/schlechter CS nur die unterschiedl. Salienz der jeweiligen CS bedingt unterschiedl. Konditionierung widerlegt von Garcia und Koelling:  2 Gruppen Ratten A/B: CS1 - Sacharin H2O, CS2 – Audiovis.Signal  Gruppe A: US – Gift, Gruppe B: US – Elektroschock  1) Kond-DG: A=> (CS H2O + CS AV) + Gift  CR Übelkeit B=> (CS H2O + CS AV) + Schock  CR Schmerzen  2. Test-DG: A  CS H2O  Messung des Wasserkonsums CS AV  Messung des Wasserkonsums B  CS H2O  Messung des Wasserkonsums CS AV  Messung des Wasserkonsums  Ergebnis: 1) Übelkeit wird eher dem „Futter“ zugeschrieben 2) Schmerzen werden eher „äußeren Umständen“ zugeschrieben ! welcher US benutzt wird, spielt schon eine wichtige Rolle, da es eine biologische Prädisponiertheit gibt

67 Spezies- spezifische Konditionierbarkeit  Wilcoxon, Dragoin & Kral (1971)  Ratten & Weißschwanzwachteln bekamen blaues, säuerliches H2O mit krankmachendem Stimulus verabreicht Ratten assoziieren Übelkeit viel eher mit Geschmack, Vögel mit Farbe Erg. : Ratten lernen säuerliches Wasser zu vermeiden, Vögel lernen säuerliches und blaues Wasser zu vermeiden Grund: Vögel müssen ihr Futter „sehen“ und auswählen, sonst würde der Anflug nicht lohnen (Nahrungsbeschaffungsverhalten in natürlicher Umwelt), Ratten sollten krankmachendes Futter vermeiden, da es ihre Überlebenschance erhöht: da sie außerdem nachts fressen, verlassen sie sich auf Geruch und Geschmack, nicht auf visuelle Hinweise  höhere Löschungsresistenz der Angstkonditionierung (SCR) auf potentiell bedrohliche Stimuli (Spinnen, Schlangen; Öhmanet al., 1985)

68 „Preparedness“ statt Äquipotenz Seligman (1970) jede Tierart zeigt durch Evolution und Erfahrung in bestimmten Bereichen schneller eine bestimmte Assoziation auf bestimmte Stimuli es gibt „vorbereitete Assoziationen“ und „gegenläufig vorbereitete Assoziationen“, d.h. bestimmte Assoziationen lassen sich leichter lernen

69 Ablauf und typisches Ergebnis einer Untersuchung zur evaluativen Konditionierung nach mehrfacher gemeinsamer Präsentation eines neutralen CS mit einem Valenten US verändert sich die Bewertung des CS in Richtung der Wertigkeit des US Typische Beisiele  Bild-Bild-Paarungen: neutrale Gesichter werden systematisch mit positiven/negativen Gesichtern gepaart  in anschl. Testphase werden die neutralen Gesichter z.B. positiver bewertet, wenn sie vorher mit sympathischem Gesicht gepaart wurden  Wort-Wort-Paarungen  Zeichen-Wort-Paarungen (Diaz et al., 2005)  Figur-Wort-Paare (Olson & Fazio, 2001)  Aromen-Geschmack/Geruch (Baeyenset al., 1990)

70 Abhängige Variable bei der evaluativen Konditionierung im Gegensatz zur Konditionierung Abhängige Variable ist der CS selbst, da dessen Qualität je nach Valenz des US (unabhängige Variable) verändert wird bei der klass. Konditionierung ist die abhängige Variable die Stärke der CR, die durch den CS (unabhängige Variable) beeinflusst wird

71 In welchen Charakteristiken unterscheidet sich die evaluative Konditionierung von der klassischen Konditionierung? Unterschiede zum Klassischen Konditionieren 1.Extinktionsresistenz  Valenz d. CS bleibt auch nach Löschung erhalten 2. Kontiguität statt Kontingenz  auch ohne Kontingenz möglich dafür zählt Kontiguität von CS und US  deshalb sind Simultane u. rückwärts gerichtete Paarung möglich 3. Kein Occasion Setting 4. Bewusstheit der CS-US-Assoziation  Aufforderung, auf die CS-US- Assoziation bewusst zu achten, verhindert Demand -Effekte (= indirekte Messung durch affektives Priming (Diaz et al., 2005) 5. Informationswert und Signalfunktion spielen hier nur geringere Rolle

72 EK geht auf „demand-Effekte“ zurück? Demand- Effekte: Wahrnehmung von Zweck und Bedeutung des Experiments steuert Antwortverhalten der VPn es wird vermutet, dass der EK- Effekt durch die Fragestellung überhaupt erst „produziert“ wird  stellt EK in Frage stellen d.h. es impliziert, dass die EK keine Form der Konditionierung ist, sondern nur ein „Begleiteffekt“, der sich je nach VPn einstellt (Manipulation) und dass jede VPn die Experimente durchschaut contra: Diaz et al,2005 : Affektives Priming zur Erfassung von EK- Affekten  es werden Zusatzaufgaben gestellt oder der US wird maskiert  Ziel: Ausschaltung bewusster Verarbeitung, die den EK- Effekt erhöht  spricht gegen demand-Effekte z.B. sollen Worte am PC negativ oder positiv bewertet werden; dabei wird die Zeit gemessen  200ms vor dem Wort („target“) sehen VPn einen „Prime“ (entweder positiv o. negativ konditioniert)  hat „Prime“ eine pos. Valenz, sollte Reaktion auf Target schneller sein

73 Welche Erklärungsansätze wurden für die EK aufgestellt? Nennen Sie Argumente/ Forschungsergebnisse, die für bzw. gegen die jeweiligen Erklärungsansätze sprechen. 1.Ein-Prozess-Modell (Lipp & Purkis, 2005)  EK und KK sind Manifestationen des gleichen Lernmechanismus Signallernen 2.Conceptual Categorization Modell (Davey, Field, 1997)  durch die Paarung des ambivalenten CS mit dem US werden die Merkmale des CS, die dem US ähnlich sind, salienter  d.h. EK sollte nur bei ähnlichen CS-US-Paarungen auftreten (contra: treten auch bei randomisierter CS-US-Paarung auf, weiteres contra: cross-modale EK (z.B. Musik-Bild) 3.Referentielles Lernen (Baeyens et al., 1992)  erst wird assoziativ CS + US gelernt  wenn später CS allein auftaucht, aktiviert er automatisch eine kognitive Repräsentation des US ohne ihn wirklich zu erwarten (dafür spricht: EK ruft bei CS ein „referentielles System“ hervor  bildet Durchschnitt über alle Valenzen der Stimuli, mit denen er bereits aufgetreten ist  erklärt auch Löschungsresistenz sowie Möglichkeit zur Gegenkonditionierung

74 Formen der Bewusstheit in der EK- Forschung „Demand awareness“: kennt VPn die Hypothese?  Untersuchungsmethoden: Befragung der VPn, Implizite Messung (z.B. affektives Priming) „contingency awareness“: kennt VPn den Zus.hang von CS und US?  Untersuchungsmethoden: 1.Ausschaltung der Bewusstheit durch subliminale Stimulusdarbietungen (Reiz kann nicht bewusst wahrgenommen werden) 2.Ausschaltung der Bewusstheit durch Ablenkung (z.B. Zusatzaufgabe) 3.getrennte Analyse bewusster und unbewusster Personen oder Stimuli (problematisch: zahlreiche Studien mit sich widersprechenden Befunden)

75 Warum ist die Debatte um Bewusstheit in der EK-Forschung so wichtig? Diskussion, da sich noch herausstellen muss, ob - nur demand-Effekte die EK verursachen - EK ein Beispiel für automatisches Lernen sein könnte

76 Warum wird am Ende eines Experiments zur EK oft eine Prozedur zum affektiven Priming durchgeführt? Affektives Priming = Bahnung von Bewertungen mithilfe des affektiven Primings kann man implizite Einstellung zu bestimmten Objekten (Primes) messen  so kann man Bewusstheit über Exp. ergründen z.B. lassen Fehlerraten bzw. Reaktionszeiten von VP´n auf Primes Rückschlüsse auf ihre Einstellung zu Z.B. Zeigen von 2 Wörtern: „eklig“ und „Spinne“,  bewerten  Reaktionzeit wird gemessen und fällt bei voll positiven Bewertungen („erfreulich“ + „Eis“) wesentlich schneller aus als bei voll negativen Bewertungen („Spinne“ + „eklig“) Z.B. Spinnen phobiker sehen Bildsequenzen; ganz kurz wird Bild einer Spinne eingeblendet (nicht bewusst wahrnehmbar)  ändert sich Bewertung des ff. Bildes?

77 „name letter“- Effekt, „mere- ownership“- Effekt „name-letter“-Effekt (Nuttin, 1985)  eigene Initialen werden anderen Buchstaben vorgezogen „mere-ownership“-Effekt (Beggan, 1992)  wenn etwas mir gehört, mein Eigentum ist, verändert sich dessen Valenz zum Positiven Lernpsychologische Erklärung - Phänomen der Eigengruppenfavorisierung und des impliziten Selbstwerts (alles, was ich mit mir verbinde, schätze ich höher ein)

78 Welche Implikationen ergeben sich durch die Forschung zur EK für eine effiziente Gestaltung von Werbung? Botschaften werden eher akzeptiert, wenn sie von Sympathieträger vermittelt werden Markenprodukte sollten immer mit positivem US gekoppelt präsentiert werden Werbung sollte so vermittelt werden, dass „mere-ownersip“ auftritt  wenn ich bestimmte Kundengruppe ansprechen will, muss ich auch bestimmte Reize einsetzen Brand-Extension: Mercedes verkauft Uhren Bessere Effekte unter Ablenkung (durch z.B. Werbestreifen am Rand, Aktienkurse etc.) Risiken: -ist Produkt einmal an US gekoppelt und ändert sich dessen Bewertung aufgrund aktueller Ereignisse, dann wird dies sofort aufs Produkt übertragen

79 Respondentes und operantes Verhalten Respondentes Verhalten  Lernmechanismus der KK  stimulusbezogen  unwillkürlich  KK ist die erfahrungsbedingte Veränderung in reizbezogenem Verhalten Operantes Verhalten  Lernmechanismus der OK  willkürlich, spontan  an Folgen/Konsequenzen orientiert  OK ist die erfahrungsbedingte Veränderung in operantem Verhalten

80 Welche Annahme liegt dem Versuch der Lernpsychologie zugrunde, die kausalen Determinanten von “willkürlichem“, zielgerichtetem Verhalten zu bestimmen? einmal gemachte Erfahrungen verändern Verhaltensweisen in der Zukunft nur weil kein offensichtlicher Stimulus da ist, der vor dem Verhalten auftritt, heißt das nicht, dass das Verhalten nicht vorhersagbar ist die operante Konditionierung beeinflusst willkürliches Verhalten

81 Gesetz des Effekts „law of effect“ (Thorndike)  nicht das Verhalten an sich wird wahrscheinlicher, sondern das situationsspezifische Verhalten  verschiedene Reaktionen auf dieselbe Situation sind möglich: a.) Befriedigung: wird mit der Situation verbunden und bei erneutem Auftreten der Situation tritt Reaktion wieder auf (=Verstärkung) b.) Frustration: schwächt die Assoziation und deshalb tritt das Verhalten in dieser Situation mit geringerer Wahrscheinlichkeit wieder auf

82 Welche Formen der operanten Konditionierung lassen sich anhand der Valenz der Stimuli und der Wirkung des Verhaltens in Bezug auf den Stimulus unterscheiden? positver Stimulus negativer Stimulus produziert pos. VerstärkungBestrafung Stimulus/ z.B. Lob nach Abwasch z.B. Schläge nach Lügen Befriedigung  Verhalten nimmt durch Lernen zu  Verhalten nimmt durch Lernen ab Des Willens Nimmt Stimulus weg/ neg. Bestrafung neg. Verstärkung Frustration d. Willens z.B. Schoki wegnehmen nach Lügen z.B. Aspirin gegen Kopfweh  Verhalten nimmt durch Lernen ab  Verhalten nimmt durch Lernen zu

83 Erläutern Sie das „stop-action“ Prinzip der operanten Verstärkung. Welche Evidenz spricht für die Wirksamkeit dieses Prinzips? Stop-Action-Prinzip  Stärkung einer Verhaltensweise in dem Moment des Eintretens der positiven Konsequenz (nach dem Kontiguitätsprinzip) Evidenz für Wirksamkeit  Guthrie & Horton, 1948: Problemkäfig: jedes Verhalten der Katze, das einige Male verstärkt wurde, dominiert dann über andere Verhaltensweisen  so entsteht immer stereotyperes Verhalten, das für „Einfrieren“ der verstärkten Verhaltensweisen spricht

84 Schildern Sie Ablauf und Ergebnisse von Skinner’s (1948) klassischem Experiment zum „abergläubischen Verhalten“. Welches Prinzip benutzte Skinner zur Erklärung der Ergebnisse? Exp.  Tauben in Versuchskammer erhalten unabhängig von ihrem Verhalten ca. alle 15 s Getreide  nach einiger Zeit wiederholen 6 der 8 Tauben zwischen den Futtergaben ganz bestimmte Verhaltensweisen, obwohl gar keine Verhaltensweise für Verstärkung nötig ist (z.B. Picken auf der Stelle) Erklärung  Kontiguitätsprinzip: das Verhalten, das zufällig im Moment der Verstärkung (Futtergabe) gezeigt wurde, wird verstärkt und tritt danach mit größerer Wahrscheinlíchkeit wieder auf  eigendyn. Verstärkungsprozess

85 Nennen Sie Untersuchungsergebnisse bzgl. der operanten Verstärkung, die sich nicht mit dem „stop-action“- Prinzip erklären lassen. Welche Art der Erklärung für operante Verstärkung wird durch diese Ergebnisse stattdessen nahe gelegt? 1.Münzinger 1928: -Hohe Variabilität im gelernten Verhalten -Meerschweinchen sollen Hebel drücken, dann bekommen sie Salatblatt -trotz anfängl. Bevorzugung von linker/rechter Pfote oder den Zähnen kommt kein Verhalten nach dem stop-action-Prinzip vor: alle 3 Verhaltensweisen treten gleich häufig auf 2. Lashley 1924: -Funktionale Generalisierung bei veränderten Umständen -Ratten müssen plötzlich schwimmen statt laufen, weil Labyrinth geflutet wird  erreichen problemlos ihr Ziel  anscheinend nicht an mechanische Muskelabfolgen gebunden Erklärung: -Gelernt werden evtl. nicht Bewegungen, sondern Effekte -schon einfachste operante Reaktionen weisen ein enormes Maß an Flexibilität und Anpassung auf

86 Geben Sie eine lernpsychologische Erklärung für die Entstehung und Aufrechterhaltung idiosynkratischer Verhaltenseigenheiten, die für den Verhaltenserfolg gar nicht erforderlich sind. Beziehen Sie Ihre Erläuterungen auf ein spezifisches Beispiel. Idiosynkratische (spezifische, abgergläubige) Verhaltenseigenheiten entstehen aus persönlichen Erfahrungen mit Verstärkern  Z.B. hat das Tragen eines Glücksbringers ein- oder mehrfach zum Sieg eines Sportlers geführt  wenn er den Sieg aus persönlichen Motiven damit verbindet, kann dies auch nachgeahmt werden  Entsteht evtl. aus Angst vor Niederlage bei Nichttragen  damit einher geht Vermeidung der Möglichkeit der Extinktion: man kann ja nie vom Gegenteil überzeugt werden

87 Erläutern Sie die Vorgehensweise des „shaping“. Inwiefern wird durch diese Technik der Anwendungsbereich der operanten Konditionierung für die Verhaltenssteuerung erweitert? Nennen Sie ein Beispiel, wie man die Technik des shaping für psychologisch- therapeutische Zwecke einsetzen kann. Shaping:  komplexes erwünschtes Verhalten, das noch nicht existiert, wird nach und nach geformt  auch nicht spontan gezeigtes, aber gewünschtes Verhalten kann aufgebaut und anschließend konditioniert werden  dabei werden Verhaltensweisen in viele Einzelschritte zerlegt, die zusammen das gewünschte Verhalten ergeben  einzelne Verhaltensweisen werden durch Reize verstärkt (prompting), bis sie beherrscht werden  Verhaltenstherapie mit retardierten Kindern (Sprechen, Sozialverhalten)  zur Verringerung des Kokainkonsums bei abh. Schwangeren Prompting:  Reiz geben, der Wahrscheinlichkeit der Reaktion erhöht Fading:  schrittweises Weglassen des Reizes

88 Was versteht man unter „freien operanten Verfahren“? Nennen Sie ein Beispiel für ein solches Verfahren. Worin unterscheiden sich diese freien Verfahren von herkömmlichen Methoden der operanten Verstärkung und worin besteht der Vorteil der freien Verfahren? „freie operante Verfahren“  zur Konditionierung wiederholbarer Reaktionen  deren Analyse erlaubt kontinuierliche Analyse von Verhaltensintensitäten Beispiel  Verhaltensanalyse in der Skinner-Box  Ratten müssen Hebel drücken, um Futter über Spender zu bekommen, es gibt Lichter, Lautsprecher und elektrisch geladenes Gitter, auf dem Ratte sitzt Unterschiede zu herkömmlichen Verfahren  Operante Reaktion kann jederzeit auftreten sowie wiederholt auftreten  es gibt keine einzelnen Durchgänge (Ersparnis)  Abängige Variable: Reaktionsrate Vorteile  Tiere (und Versuchsleiter) ermüden nicht so schnell  Viel mehr Durchgänge/Tag möglich (Effektivität)  Man kann jederzeit beobachten und aufzeichnen

89 Dreifachkontingenz 3 Komponenten der Dreifachkontingenz: 1.Kontext (Situation, in der Reaktion stattfindet & Stimuli, die ihr vorausgehen: „diskriminativer Hinweisreiz“) 2.Reaktion 3.Stimuli, die der Reaktion folgen (Verstärker) Hypothetisches Untersuchungsbeispiel: 1.Über der Taste leuchtet Licht, wenn Futter verfügbar 2.Taube lernt, auf Taste zu picken 3.Bekommt Futter als Verstärker, wenn sie 2. gelernt hat

90 Wo würden Sie größere Schwierigkeiten erwarten, wenn Sie Prinzipien der operanten Verstärkung in Alltagssituationen einsetzen wollten: Beim Aufbau oder bei der Löschung von Verhalten? Warum? Schwierigkeiten eher bei der Löschung von Verhalten, da Verstärker häufig unbekannt bleiben und man sie so schlecht kontrollieren kann (man kann ja den Mensch nicht rund um die Uhr beobachten) Intermittierende Verstärkung ist schwerer zu löschen als kontinuierliche Verstärkung

91 Was ist ein sekundärer Verstärker? Geben Sie ein Beispiel und erläutern Sie, wie man sekundäre Verstärkung erklärt. Sekundäre Verstärker  indirekt wirkende Verstärker  vorher neutrale Reize erwerben eine Verstärkungsfunktion durch systematische Kopplung mit primären Verstärkern Z.B. wird Reiz Fernsehen bei Kindern zum sekundären Verstärker, wenn gekoppelt mit Verstärker Süßigkeit  Fernseher wird sekundärer Verstärker Primäre Verstärker  biologisch anglegte Wirkung, benötigen kein spezielles Training, um effektiv zu sein, z.B. H2O

92 Was versteht man unter „token reinforcement“? Wie kann man erklären, dass manche tokens effizientere Verstärker darstellen als primäre Verstärker? „token reinforcement“  systematische materielle Verstärkung durch Zwischenverstärkung (Überbrückungsfunktion)  sekundäre Verstärker kündigen zur Motivationsaufrechterhaltung verschiedene primäre Verstärker an (z.B. Geld, Macht, Status)  erwünschte Verhaltensweisen werden mit tokens belohnt, die später gegen andere materielle Verstärker eingetauscht werden können Können effizienter als manche primären Verstärker sein, weil  Generalisierte Verstärker (z.B. Geld) glz. auch sekundäre Verstärker sind, die gleich mehrere Verstärker ankündigen  Z.B. wenn Schüler ruhig auf Stuhl sitzen bleibt, erhält er 5 Token, die er sammeln und später eintauschen kann (gegen z.B. Süßes)  Schimpansen lernen, mit Plastikchips aus Automaten Früchte zu ziehen und sogar, einen schweren Hebel zu bedienen, um an die Chips zu kommen

93 Welche Rolle spielen externe Stimuli bei der Steuerung von Verhalten? Erläutern Sie jede Funktion anhand eines Beispiels. 1.Feedback  sagt uns, ob unser Verhalten richtig oder falsch war  ich werde Verhalten nur wieder zeigen, wenn Feedback positiv 2.Steuerungsfunktion  situative, diskriminative Hinweisreize signalisieren Verstärkungsmöglichkeiten (ob wir Verhalten weiterhin zeigen o. nicht), z.B. Schwatzen i.d. Pause vs. Schwatzen im Unterricht  Unterricht/Pause = diskriminativer Hinweisreiz, ob Verhalten gewünscht o. nicht 3.Überbrückungsfunktion  Tokens  zeigen übersichtlich, dass Verhalten das richtige ist und wir es aufrecht erhalten sollen  Bsp.:Token Economy in Psychiatrie: Tokens für angemessenes Verhalten /erfüllte Aufgaben  werden mit höherer Wahrscheinlichkeit erfüllt

94 Wozu wird „chaining“ eingesetzt? Erläutern Sie die Standardmethode des „chaining“. „ chaining“  Aufbau komplexer Verhaltensabfolgen durch Verkettung von Verhaltensweisen mit Hilfe konditionierter Verstärker z.B. um Tiere zu dressieren oder mit dem Rauchen aufzuhören Standardmethode des „chaining“  erlerntes Verhalten = Abfolge v. Verhaltensweisen, wobei jeder Stimulus in der Mitte 2 Funktionen erfüllt: a.) verstärkt das vorher gezeigte Verhalten b.) steuert das danach gezeigte Verhalten (Hinweisreiz)  um komplexe Verhaltensweisen aufzubauen, muss man die Verhaltensweisen, die zum Ziel führen, mithilfe einzeln konditionierter Verstärker und Hinweisreize verketten

95 Wie geht man bei der Rückwärtsverkettung und bei Vorwärtsverkettung vor? Rückwärtsverkettung  Tier lernt zuerst die letzte Aufgabe i.d. Handlungskette, z.B. den Hebel zu drücken, um Futter zu bekommen  dann vorletzte Aufgabe, z.B. zum Hebel zu rennen, um ihn zu drücken  stufenweise bis zur 1. Sequenz durcharbeiten  weil mittlerer Stimulus jeweils den zurückliegenden Stimulus verstärkt und den davorliegenden steuert, lernt Tier die Abfolge zusammen zu setzen  zur Hilfe muss man bei manchen Schritten Futter als Verstärker einsetzen, bis das jeweilige Verhalten etabliert ist Vorwärtsverkettung  Tier lernt zuerst die 1. Verhaltensweise und wird nach jedem gelernten Schritt mit einem Zwischenverstärker belohnt  dauert länger, da dieser Zwischenverstärker immer wieder weggenommen werden muss  schwerer zu etablieren, da der vorhergehende Reiz (diskriminativer Reiz mit Steuerungsfunktion) fehlt

96 Nennen Sie Beispiele, bei denen die operante Verstärkung an ihre Grenzen stößt. Wie lässt sich dieses Scheitern erklären? „the misbehavior of organisms“  erwünschte Verhaltensweisen werden nach anfängl. Erfolgen durch unnötiges, verstärktes Verhalten ersetzt  z.B. lässt Schwein die Münzen auf dem Weg zum Sparschwein fallen und verbuddelt sie; Waschbär gibt Münzen nicht mehr her, sondern reibt sie erklärt durch „Instinctive drift“  mit zunehmender Erfahrung weicht die gezeigte Leistung des Versuchstieres von verstärktem Verhalten ab und stattdessen treten instinktive Verhaltensweisen auf  speziestypische explorative und/oder appetitive Verhaltensweisen verdrängen gelerntes Verhalten Da operante Verstärkung auf biologisch angelegtem Verhaltensrepertoire basiert und einwirkt, ist es auch biologisch beschränkt

97 Schildern Sie den Aufbau und die Ergebnisse der klassischen Untersuchungen von Brown & Jenkins (1968) zum sog. „autoshaping“. -Taube lernt in Skinnerbox aus einem Futterspender zu fressen -Lichtfeld zeigt den Verstärker vorher an (Futter): die Taube pickt darauf, obwohl nicht nötig, um Verstärker zu bekommen -Ist das Picken ein sich selbst verstärkender Aberglaube?  widerlegt (Rachlin) -entspricht eher der klass.Konditionierung: CS Licht  US Futter  CR Picken (weil Licht mit Futter kombiniert auftritt, kombiniert es auch die Taube)- (widerlegt von Williams & Williams)

98 Wie wurde das Phänomen des „autoshaping“ ursprünglich erklärt? Durch welche Untersuchungsergebnisse konnte gezeigt werden, dass diese Erklärung unzutreffend ist? ursprünglich durch abergläubisches Verhalten erklärt  Taube pickt sowieso häufig, evtl. pickte sie zufällig in dem Moment, in dem Licht an war und Futter kam  oder schaute zufällig auf Licht… widerlegt von a.) Rachlin (1969)  fotografierte Tauben im Moment der Verstärkung und sah keine Neigung, der Taste näher zu kommen: im Gegenteil schaute Taube sogar in andere Richtung  keine systematische Annäherung Theorie der KK widerlegt von b.) Williams & Williams (1969)  Autoshaping findet selbst dann statt, wenn Picken systematisch nicht verstärkt wird  sogar, wenn nie Futter folgte, verstärkte Taube das Picken auf das Licht

99 „Humphrey´s Paradox“ -je seltener verstärkt wird, desto höher wird Löschungsresistenz (desto kleiner die Wahrscheinlichkeit, dass Verbindung gelöscht werden kann) -paradox, da es Häufigkeitsprinzip verletzt: warum soll Reaktion, die nur manchmal verstärkt wird, schwerer zu löschen sein als eine, die permanent verstärkt wird?  partial reinforcement effect -geht mit flachem Löschungsgradienten einher -erklärbar mit Diskriminationshypothese (Mowres & Jones, 1945)  bei seltener Verstärkung ist eine Umstellung auf Löschung vom Organismus nur schwer zu erkennen (z.B. defekter Getränkeautomat vs. defekter Glücksspielautomat)

100 Nennen Sie ein Alltagsbeispiel für die Aufrechterhaltung von Verhalten durch intermittierende Verstärkung. -z.B. Lottospiel: jede Woche gebe ich Lottoschein ab, aber nur äußerst selten wird mein Verhalten positiv verstärkt -d.h. mein Verhalten, Lotto zu spielen ist schwerer zu löschen als z.B. mir die Haare zu kämmen, wo ich durch einen Blick in den Spiegel belohnt werde

101 Erläutern Sie die 4 grundlegenden Verstärkerpläne. Geben Sie jeweils eine Definition der Terminologie und nennen Sie ein Untersuchungs- oder Alltagsbeispiel. 1. Fester Quotenplan (Fixed Ratio, FR)  Verstärkung nach jeder n-ten Reaktion, z.B. FR-10: jede 10.Reaktion wird verstärkt  z.B. Akkordarbeit  kontiniuierliche Verstärkung: kurze Pausen nach Verstärkergabe, hohe Reaktionsrate  Kostenintensiv, da viele Verstärker nötig, dafür schnelles Lernen 2. Variabler Quotenplan (Variable Ratio, VR)  n variiert zufällig um einen Mittelwert, z.B. VR-10 =: Reaktionen um 10. Reaktion werden verstärkt  z.B. Spieler am Spielautomaten  Partielle Verstärkung: keine Pausen, nach Verstärkergabe hohe Reaktionsrate 3. Fester Intervallplan (Fixed Interval, FI)  Zeitintervall ist auf bestimmten Wert festgelegt, z.B. FI-10: 10 s nach einer Verstärkung wird der 1. Verstärker bereit gestellt und nach der ersten, dann folgenden Reaktion verabreicht  Bsp. So lernen die meisten  Schnelle Reaktionen nur, wenn sich Zeit der Verstärkung nähert, Abfall nach Belohnung 4. Variabler Intervallplan (Variable Interval, VI)  Intervall variiert zufällig um einen Mittelwert, z.B.VI-10: nach der letzten Verstärkung wird Verstärker erst wieder in Zeitintervallen um 10 s herum bereit gestellt, Bsp. Menschen, die nach der Post sehen, wenn ca. die Zeit dafür ist  ziemlich regelmäßige Reaktionen, langsam, aber beständig (so müsste man lernen)

102 Beschreiben Sie die charakteristischen Kurven der kumulativen Verhaltenshäufigkeit, die für die vier Standardverstärkerpläne beobachtet werden. FR:  „stop-and-go“ –Muster:  nach jedem Verstärker eine Reaktionspause: Nachverstärkungspause  abrupter Übergang von Pause zu weiteren Reaktionen  gleich bleibende, hohe Geschwindigkeit der Reaktionen bis zum nächsten Verstärker VR:  Reaktionsmuster: schnell & relativ gleichmäßig  Fehlen langer Nachverstärkungspausen bzw. kleinere Pausen FI:  typ. Reaktionsmuster: relativ steiler Anstieg, keine Nachverstärkungspause  aber nach Pause beginnt Versuchstier zunächst recht langsam zu reagieren  mit wachsendem Intervall reagiert es schneller: Anstieg d. Reaktionsgeschwindigkeit  kurz vorm nächsten Verstärker ist Reaktionsgeschwindigkeit recht hoch VI:  stetige mittlere Reaktionsrate

103 Nennen Sie verschiedene Hypothesen, um die Nachverstärkungspause im festen Quotenplan zu erklären. Durch welche experimentelle Evidenz konnten diese Hypothesen gestützt bzw. widerlegt werden?  durchschnittliche Länge der Pause nimmt mit Erhöhung der Quote zu, d.h. je mehr Reaktionen nötig sind, bis Verstärker kommt, desto mehr braucht VPn Pause  spricht für Ermüdung und gegen Sättigung (Akkordarbeit)  Reaktionsrate nimmt im Anschluss an Pause allmählich ab  spricht für Ermüdung  Pause wird unabhängig von vorhergehender Quote gemacht, aber abhängig von bevorstehender Quote  gegen Ermüdung, für Verstärker-Distanz-Hypothese

104 Schildern Sie den Aufbau und die Ergebnisse der Untersuchung von Baum (1993) zum Vergleich der Reaktionshäufigkeit in VI- und VR –Plänen. Aufbau: -Tauben werden Variable Intervallpläne (Intervall variiert zufällig um einen Mittelwert) und Variable Quotenpläne (n variiert zufällig um einen Mittelwert), gezeigt -Verstärkungsrate variiert von 20 – 1000 Verstärker/h Ergebnis: -reagieren bei VR-Plänen durchschnittlich schneller (auch wenn mit der gleichen Verstärkerrate getestet wird) -Tendenz, dass Unterschiede zwischen VR und VI bei hohen Verstärkungsraten verschwinden

105 Erklären Sie die Unterschiede in der Verhaltenshäufigkeit bei VR- und VI- Plänen mithilfe der „Interresponse Time Reinforcement“ Theorie und mit der „Response- Reinforcer Correlation“ Theorie. Interresponse Time Reinforcement Theory  interresponse time = Zeit zw. 2 aufeinanderfolgenden Reaktionen  molekulare Theorie (bezieht sich auf Zeitspanne von < als 1 min)  Reaktionsraten bei VI-Plänen sind langsamer, weil lange IRT´s öfter verstärkt werden  mit Zeit, die zwischen 2 Reaktionen vergeht, steigt die Wahrscheinlichkeit, dass die VI-Uhr stoppt und einen Verstärker bereitstellt  bei VR-Plan spielt Zeit keine Rolle: Gabe von Verstärkern hängt nur von Zahl der Reaktionen ab  es werden also keine langen Pausen selektiv verstärkt  Tendenz, dass Reaktionen in Blöcken von kurz aufeinanderfolgenden Reaktionen auftreten erhöht die Wahrscheinlichkeit, dass Reaktionen mit kurzem Intervall eher verstärkt werden

106 Response-Reinforcer-Correlation- Theory  betont „globalere“ Beziehungen zwischen Reaktion & Verstärker, nämlich zwischen durchschnittlicher Reaktionsrate und Gesamtverstärkungsrate  im VR-Plan ist die Beziehung zwischen Reaktionsrate und Gesamtverstärkungsrate linear  Im VI-Plan nicht: egal, wie schnell man reagiert, man kann dennoch nicht mehr als die festgelegte Anzahl von Verstärkern/Zeiteinheit bekommen  Verstärkungsrate sinkt bei sehr niedrigen Reaktionsraten, weil VI-Uhr manchmal angehalten wird, wenn Verstärker bereit gestellt worden ist und setzt erst wieder ein, nachdem man reagiert und den Verstärker erhalten hat  solange man mit mäßiger Geschwindigkeit reagiert, erwirbt man fast alle möglichen Verstärker pro Zeiteinheit

107 Negative Verstärkung  Frequenz eines Verhaltens nimmt zu, wenn negativer Stimulus nach Auftreten des Verhaltens weggenommen wird  aversiver Reiz hört auf, wenn Verhalten gezeigt (negative reinforcement, avoidance, escape) Laborexperiment: Solomon & Wynne (1953):  Hunde in Zweikammerkäfig, je eine Lampe pro Kammer, mit einem Sprung über die Trennwand des Käfigs kann Hund vor dem Elektroschock, den er über den Metallboden erhält, fliehen  Licht geht in K. 1 aus, nach 10 sec. kommt Schock bis Hund in Kammer 2 gesprungen ist  nach einigen DG zeigt Hund keine Fluchtreaktion mehr, sondern springt schon während der 10 s Dunkelheit, d.h. er zeigt eine Vermeidungsreaktion  Ergebnis: negative Verstärkung: Auftretenswahrscheinlichkeit des Sprungs schon wahrend der 10 Sekunden nimmt zu, wenn Elektroschocks nach rettendem Sprung ausbleiben Alltagsbeispiel:  Tabletteneinnahme bei Kopfschmerz

108 Positive und negative Bestrafung Positive Bestrafung  wenn einem Verhalten ein unangenehmer Reiz folgt, wird das Verhalten mit dem Reiz gekoppelt und reduziert so ein erneutes Wiederauftreten des Verhaltens  Bsp. Drogen nehmen gekoppelt mit Ohnmachtsanfall führt eher zu Drogenabstinenz Negative Bestrafung  wenn nach einem bestimmten Verhalten ein angenehmer Reiz entzogen wird, wird das Verhalten mit dem Ausbleiben des Reizes gekoppelt und reduziert so ein erneutes Wiederauftreten des Verhaltens  Bsp. Zu spät nach Hause kommen wird mit mit Taschengeldkürzung bestraft

109 Flucht- und Vermeidungsverhalten Fluchtverhalten  Reaktion setzt erst nach Beginn des aversiven Reizes ein  Bsp. Hund springt erst nach Beginn des Elektroschocks über die Trennwand Vermeidungsverhalten  Durch die Reaktion entgeht VPn dem aversiven Reiz  Bsp. Hund springt schon vor Elektroschock über die Trennwand Aufrechterhaltung dieser Verhaltensweisen durch negative Verstärkung: aversiver Reiz wird beendet (Flucht) oder bleibt aus (Vermeidung), wenn Reaktion ausgeführt wird  Kopplung  Auftretenswahrscheinlichkeit der Reaktion steigt

110 Von welchen Faktoren hängt die Effizienz von Bestrafung ab? Wie sollte effiziente Bestrafung in Alltagskontexten (Erziehung, Verhaltenstherapie) aussehen? -Konsequenz -Intensität -Kontiguität: Unmittelbarkeit -Verhaltensmotivation (wenn hohe Motivation, dann hat Bestrafung geringere Auswirkung auf Verhalten) -Verfügbarkeit alternativer Verhaltensweisen - Bestrafungsplan (FR-1 am effektivsten) Bestrafung sollte: -Intensiv beginnen und unmittelbar dem Verhalten folgen -mit dem Aufbau eines alternativ erwünschten Verhaltens zur Erlangung des Verstärkers einhergehen -auf jede unerwünschte Reaktion folgen, also FR-1

111 Schildern Sie Aufbau und Ergebnisse der beiden Standardexperimentalparadigmen zur Analyse von Vermeidungsverhalten. 1.Flucht-/Vermeidungslernen mit Hinweisreizen – „signalled shock“ (Solomon & Wynne, 1954) -Hunde, die zur Vermeidung des Schocks über Trennwand springen, wenn nur das Licht ausgeht (Hinweisreiz) -trotz späterem Weglassen des Schocks erscheint Vermeidungsverhalten  spricht für hohe Löschungsresistenz des Vermeidungsverhaltens 2. Unangekündigtes Flucht-/Vermeidungslernen bzw. freie operante Vermeidung (Sidman, 1953) -Ratte bekommt alle 5 s Schocks, wenn sie nicht einen Hebel drückt  wenn sie ihn drückt, dann wird der nächste Schock um 30s später kommen -Erg.: die Zeit wird zum Hinweisreiz -> Ratte drückt häufig genug, um viele Schocks zu vermeiden  dabei wird ihr Vermeidungsverhalten robuster

112 Erklären sie Vermeidungsverhalten in den beiden Standardparadigmen des Vermeidungslernens mithilfe der Zwei-Faktoren-Theorie. Zwei-Faktoren-Theorie  sowohl KK als auch OK sind beteiligt an Vermeidungsreaktion 1.Klassische Konditionierung  1. Prozess: US Schock  UR Angst: bei KK wird Angst vom US auf einen CS (Stimulus, der dem Schock vorausgeht, z.B.Licht)  nach einigen Widerholungen reagiert VPn mit Angst auf Licht 2.Operante Konditionierung  2. Prozess: negative Verstärkung der Vermeidungsreaktion dadurch, dass Beendigung des CS (Licht aus) die Angst reduziert; aversiver Reiz wird weggenommen  Nach dieser Theorie ist Verstärker für eine Vermeidungsreaktion nicht die Vermeidung des Schocks, sondern die Flucht vor dem Angstauslösenden CS

113 Schildern Sie Aufbau und Ergebnis der Untersuchung von Hernstein & Hineline (1966) zum Vermeidungsverhalten. Welche Theorie des Vermeidungsverhaltens wird durch diese Untersuchung widerlegt? Welche Ansätze können das Ergebnis der Untersuchung erklären? Jede Reaktion (Hebeldrücken=) brachte eine Ratte von Plan A (nach 2s erfolgt mit P=30% Schock) nach Plan B (P=10%) um Zahl der Schocks gering zu halten, sollte Ratte möglichst oft im 10%-Plan reagieren wenn im 10%-Plan Schock erfolgte, wechselte Tier wieder in 30%-Plan, bis zum nächsten Hebeldrücken Ratten konnten durch Reaktion zwar viele Schocks vermeiden, aber ihre Reaktion bot auch keine Garantie für eine feste Zeitspanne ohne Schock  drosseln, aber nicht vermeiden Zeit o. CS ist nicht mehr zuverlässiger Prädiktor für Auftreten/Ausbleiben des Schocks Ergebnis: Tier drückt regelmäßig Hebel und lernt irgendwann Vermeidungsverhalten, obwohl weder Zeit noch äußere CS zuverlässige Schocksignale sind D.h. das Tier muss einschätzen können, wie hoch die durchschnittl. Schockrate bei Reaktion bzw. Nichtreaktion ist  widerlegt 2-Faktor-Theorie  erklärt Ergebnisse mit der 1-Faktor-Theorie

114 Wie erklärt man Vermeidungs- verhalten mit der Ein-Faktor-Theorie? Ein-Faktor-Theorie /operante Vermeidung -Je weniger aversive Ereignisse  desto Vermeidungsverhalten -nicht die reduzierte Kontingenz, sondern „schockfreie Phase“ ist der effiziente Verstärker

115 Nennen Sie die Kernannahmen der kognitiven Theorie des Vermeidungsverhaltens. Welche Ergebnisse zum Vermeidungsverhalten lassen sich nur durch diese Theorie erklären? Kognitive Theorie des Vermeidungsverhaltens (Seligman & Johnston, 1973)  Erklärung auf Basis v. Präferenzen, Erwartungen u. Bestätigung / Widerlegung  P: kein Schock ist besser als Schock  E1: wenn Reaktion, dann P für Schock niedrig  E2: wenn keine Reaktion, dann P fur Schock hoch  Bestätigungen: wenn R ¬ Schock, ¬ R Schock  Widerlegung: R Schock, ¬ R ¬ Schock  kann Löschungsresistenz erklären: Tier glaubt, dass wenn R ¬ Schock, also merkt es nicht, dass deshalb kein Schock mehr auftritt, weil es ein Extinktionsdurchgang ist  kann Erfolg der Reaktionsblockierung erklären: keine Reaktion  laut Erwartung des Tieres folgt Schock, aber: ¬ R ¬ Schock Erwartung ändert sich allmählich  Vermeidungsverhalten verschwindet allmählich  Verhalten ändert sich bei Vermeidungsaufgaben immer dann, wenn eine Diskrepanz zw. Erwartung & Realität besteht

116 Erläutern Sie den Begriff der spezies-spezifischen Defensiv-Reaktionen (SSDR). Welche Implikationen ergeben sich auf der Basis der biologischen Theorie für die Allgemeingültigkeit von Vermeidungsverhalten? spezies-spezifische Defensiv-Reaktion (SSDR)  sehr wirksame angeborene Verteidigungsreaktionen, die auftreten, wenn Tier einem neuen oder plötzlichen Reiz begegnet Implikationen:  in Laboruntersuchungen des Vermeidungsverhaltens werden diejenigen Verhaltesweisen schneller gelernt, die dem natürlichen Vermeidungsverhalten am ähnlichsten sind  hängt auch von der Art des Verstärkers ab: natürliche Reaktion bei Futter als Verstärker ≠ Reaktion bei Schocks als Verstärker  SSDRs werden leicht als Vermeidungsverhalten erworben, andere Verhaltensweisen lassen sich nur sehr mühsam aufbauen

117 Warum ist es häufig so schwierig, in Alltagssituationen zu erkennen, dass ein Verhalten durch Vermeidung motiviert ist? weil nicht sichtbar: wir sehen weder Anlass noch Konsequenz (zumindest bei gutem Vermeiden sieht man Konsequenz nicht (siehe: Hund vermeidet Schock  bekommt keinen Schock)

118 Erklären Sie das klassische yoked-control Design der Hilflosigkeitsforschung. Welcher Erklärungsansatz kann hiermit ausgeschlossen werden? Was ist demnach der zentrale Wirkfaktor beim so genannten Hilflosigkeitstraining? yoked-control-design  3 Ratten in getrennten Käfigen mit Laufrädern → Ratte 1 keine Schocks (control), Ratte 2 kann Schocks vermeiden indem sie Laufrad lauft & Ratte 3 kann Schocks nicht durch Laufen in Laufrad vermeiden  Ratte 2 und 3 haben gleiche Anzahl an Schocks mit gleicher Intensität bekommen, nur dass Ratte 2 durch Laufrad die Schocks abstellen konnte und das glz. für Ratte 3 die Schocks aufhörten → Ratte 3 war somit v. Tier in Käfig 2 abhängig und hatte keinen Einfluss auf die Schocks (wusste aber nichts von Ratte 2)  in anschließender Vermeidungsprozedur lernt Ratte 2 schneller das Vermeidungsverhalten als Ratte 3, weil Ratte 3 glaubt, sie kann Schocks nicht beeinflussen  Vermeidungsverhalten nicht von Menge o. Intensität des aversiven Stimulus abhängig  zentraler Wirkfaktor: ob Ratte vorher die Möglichkeit hatte, Flucht- o. Vermeidungsverhalten zu lernen: Kontrolle über Vermeidungsverhalten

119 Was versteht man unter Generalisierungseffekten bei der gelernten Hilflosigkeit? Schildern Sie zur Erklärung die klassischen Studien von Hiroto & Seligman (1975). I.Phase: Studentengruppe 1: wurden laute Gerausche präsentiert, die sie nicht vermeiden konnten Studentengruppe 2: wurden keine Gerausche präsentiert bzw. konnten Töne durch Tastendruck kontrollieren II. Phase: Studenten sollten Anagramme lösen Ergebnisse  1. Gruppe lernt viel langsamer, gibt schneller auf, scheint sich nicht so viel zuzutrauen, nach vielen Durchgängen erst langsame Fortschritte - Kontrollverlust als Ursache fur ein globales Motivationsdefizit? -frühere Erfahrungen mit nicht kontrollierbaren aversiven Ereignissen erzeugt Gefühl der Hilflosigkeit, das sich auf andere Situationen uberträgt -Ähnliche Symptome: Passivität, wenig Interesse an soz. Interaktion, Appetitlosigkeit etc.

120 Therapieansätze bei Depressionen nach der Hilflosigkeitstheorie Neue Kontrollerfahrungen schaffen Änderungen von alten Attributionen mangelnder Kontrolle

121 Schildern Sie die bahnbrechende Untersuchung von Tolman & Honzik (1930) zum latenten Lernen und deren Ergebnisse. Welche wichtige Implikation lässt sich aus dieser Untersuchung für den Wirkungsbereich der operanten Konditionierung ableiten? Aufbau: - 3 Gruppen Ratten, 17 Durchgänge, 1 /Tag in Labyrinth mit 14 Abzweigungen - 1. Gruppe: Kontrollgruppe: keine Verstärker: nie gefüttert, wenn Ratte an Ziel kommt - 2. Gruppe: immer Futter als Verstärker in Zielkammer - 3. Gruppe: bis 11. Durchgang kein Verstärker, dann immer Verstärker: Futter Ergebnis: - 1. Gruppe: Fehler sinken gering, pendeln sich bei ca. 7 pro Durchgang ein -2.Gruppe: Fehler sinken stark & relativ schnell: typische Lernkurve, ca.3 Fehler/Durchgang -3. Gruppe: zuerst wie in 1.Gruppe, ab 12. Durchgang schnell sogar besser als 2.Gruppe (bei 11.Durchgang wussten Ratten ja noch nicht, dass es am Ziel Futter gibt)  Labyrinthlernen ohne Belohnung führt zu dramatischem Leistungszuwachs unmittelbar nach Einführung von Verstärkung Implikationen: -Lernen hängt von der Art des Verstärkers ab, bzw. davon, ob Verstärker verabreicht wird: Erwartung bzgl. des Verstärkers -Tiere lernen auch ohne Verstärker, sie sind nur nicht motiviert, zu zeigen, was sie gelernt haben, wenn sie keinen Verstärker erhalten

122 Bandura (1965): Untersuchung zum Beobachtungslernen: welches Ergebnis belegt den Effekt der stellvertretenden Verstärkung? Woran kann man erkennen, dass auch ohne stellvertretende Verstärkung gelernt wurde? Lernen ohne eigenes Verhalten und mit stellvertretender Verstärkung Kinder (3,5 - 6 Jahre) beobachten Modell, das aggressives Verhalten gegenüber Puppe zeigt (5 minütiger Film). Konsequenzen d. Modellverhaltens: – 1. Gruppe beobachtet, wie aggressives Verhalten belohnt wird – 2.Gruppe, wie es bestraft wird – 3. Gruppe sieht weder das eine noch das andere  Kindern wird dann die Gelegenheit gegeben, in einem anderen Raum mit derselben Puppe zu spielen  Gruppe I ebenfalls aggressiv mit der Puppe  Gruppe II eher zurückhaltend – klare Effekte der Belohnung des Modells - falls aber Kinder aufgefordert werden, das Verhalten zu zeigen („mit Anreiz“), können dies alle  d.h. das Verhalten wurde gelernt (Kompetenz), aber nicht immer gezeigt (Performanz)  nach Bandura Modelllernen als Lernprinzip gleichbedeutend mit der klassischen und der operanten Konditionierung

123 Kontrastieren sie die Begriffe Performanz und Lernen mithilfe Banduras Imitationstheorie. Was wird unmittelbar durch Verstärkung reguliert? Lernen vs. Performanz (Ausführungsphase) 1.Aufmerksamkeit 2.Gedächtnis 3.Motorische Reproduktion 4. Motivation  1. – 3. sind für Lernen nötig  für Performanz ist zusätzlich 4. nötig  Verstärker reguliert Motivation u. Performanz

124 Inwiefern ist die naive Verhaltenserklärung durch das Konzept der Verstärkung zirkulär? Wie kann man das Zirkularitätsproblem in den Griff bekommen? „Verstärker“ = Stimulus, der künftig die Auftretenswahrscheinlichkeit des Verhaltens, auf das er folgt, erhöht Zirkelschluss:  Stimulus wird Verstärker genannt, weil er ein Verhalten verstärkt und es wird angenommen, dass er das Verhalten verstärkt, weil er ein Verstärker ist - in dieser Definition ist kein Vorhersagewert, -element inbegriffen Lösung :  unabhängige Kriterien dafür aufstellen, welche Stimuli Verstärker darstellen und welche nicht  Finden einer Regel, die uns im Voraus sagt, ob ein Stimulus als Verstärker wirkt (Regel, die neue, überprüfbare Vorhersagen erlaubt)  valides Konzept: Prinzip der Reaktionsdeprivation (= besser als Bedürfnis- und Triebreduktion, besser als Transsituationalitats- prinzip & besser als Premack’sches Prinzip)

125 Verstärkung als Bedürfnisreduktion und als Triebreduktion: warum als allg. Verstärkungstheorien ungeeignet? Bedürfnisreduktion (Hull, 1943)  Primäre Verstärker = Stimuli, die biologische Bedürfnisse reduzieren  Aber: es gibt Verstärker, die kein notwendiges biolog. Bedürfnis reduzieren (Saccharin, Sex)  Biolog. Notwendigkeiten ohne Verstärkungswirkung (Vitamin B1) Triebreduktion (Miller, 1948)  starke Stimulation (Trieb) ist aversiv, Reduktion der Stimulation (Trieb) ist Verstärker  Aber: –nicht jede Stimulusreduktion wirkt verstärkend (Senkung der Temperatur auf -18 Grad) – Verstärker, die Stimulation erhöhen (Spielzeug) können schlecht aversiv sein

126 Transsituationalitätsprinzip der Verstärkung (Meehl) -Prinzip besagt, dass ein Stimulus, der in einer Situation als Verstärker fungiert, auch inanderen Situationen ein Verstärker ist - z.B.: gesüßtes H2O für Ratte in Experiment verstärkt Verhalten im Laufrad, sollte aber auch in einem anderen Experiment als Verstärker fungieren

127 Erläutern Sie die Begriffe der Verstärkung und Bestrafung mittels des Premack’schen Prinzips. Schildern Sie eine Untersuchung von Premack, mit der die Unzulänglichkeit des Transsituationalitätsprinzips nachgewiesen wurde. Untersuchung I.Phase: Affen dürfen verschiedene Dinge frei ausüben: a.) Hebeldrücken: Wahrscheinlichkeit hoch b) Tür offnen: Wahrscheinlichkeit mittel c.) Kolben ziehen: Wahrschinlichkeit niedrig II. Phase: Paare von Gegenständen präsentiert: 1.Gegenstand als „operante Reaktion“, 2. Gegenstand als „Verstärker  man konnte nur an 2.Gegenstand gelangen, wenn erste Reaktion ausgeführt worden war Ergebnisse: - Hebel diente als Verstärker für Tür offnen und Kolben ziehen - Türöffnen diente als Verstärker für Kolben ziehen, aber nicht für Hebel - Kolben diente für keine Verhaltensweise als Verstärker Premacks Prinzip bestätigt, Transsituationalitätsprinzip widerlegt:  „Tür offnen“ ist nicht in allen Situationen ein Verstärker

128 Premack´s Prinzip Premacks Prinzip: -Methode der Verstärkung: Kontingenz zwischen zwei Verhaltensweisen -Verhalten mit höherer Auftretenswahrscheinlichkeit verstärkt Verhalten mit geringerer Bestrafung  Verhalten mit geringerer Auftretenswahrscheinlichkeit dient als Bestrafung für Verhalten, das mit höherer Wahrscheinlichkeit auftritt Verstärker = Kontingenz zwischen zwei Verhaltensweisen


Herunterladen ppt "Was ist Gegenstand der Lernpsychologie? -untersucht Lernen und Erlernen allgemeiner Mechanismen der Verhaltensänderung - sucht nach Regeln und Gesetzmäßigkeiten,"

Ähnliche Präsentationen


Google-Anzeigen