FGAN apl. Prof. Dr. Ulrich Schade Konnektionismus 4. Sitzung (06.11.2008)

Slides:



Advertisements
Ähnliche Präsentationen
PRESENTATION HEADLINE
Advertisements

Perceptrons and the perceptron learning rule
H - A - M - L - E - IC T Teachers Acting Patterns while Teaching with New Media in the Subjects German, Mathematics and Computer Science Prof. S. Blömeke,
Mean and variance.
Einführung in die Informatik: Programmierung und Software-Entwicklung
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
WS Prof. Dr. Th. Ottmann Algorithmentheorie 09 - Suche in Texten KMP, BM.
How many of these flags do you recognise? Work with your partner to see if you know many – write them down - some will crop up shortly!
What do you get marks for?
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Telling Time in German Deutsch 1 Part 1 Time in German There are two ways to tell time in German. There are two ways to tell time in German. Standard.
= = = = 47 = 47 = 48 = =
Wenn…… the conditional. Using the conditional tense The conditional tense is used to talk about something that happens only after something else happened.
study of medicine no obligatory training content in almost all medical schools (universities) in Germany elective subject for medical students during.
Der Einstieg in das Programmieren
Scratch Der Einstieg in das Programmieren. Scatch: Entwicklungsumgebung Prof. Dr. Haftendorn, Leuphana Universität Lüneburg,
Änderungen bewerten Change_Request.doc Änderungen bewerten Projekt-
WS Algorithmentheorie 02 - Polynomprodukt und Fast Fourier Transformation Prof. Dr. Th. Ottmann.
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 2.1.
Wozu die Autokorrelationsfunktion?
Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUTE University of Paderborn Algorithms and Complexity Algorithmen und Komplexität Teil 1: Grundlegende.
Wir suchen ‘ mit m = m    ‘ c  ‘ mod 26
Differentieller Stromverstärker
Studienverlauf im Ausländerstudium
Diskussion H. G. Wells World Brain - Expertendiskussion Seminar I-Prax: Inhaltserschließung visueller Medien, Spree WS 2006/07 Diskussion 1.Welche.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Kennlinie Lichtregelung in JavaNNS Version 1.1
Ralf KüstersDagstuhl 2008/11/30 2 Ralf KüstersDagstuhl 2008/11/30 3.
01 Installation / Support. © beas group 2011 / Page 2 This documentation and training is provided to you by beas group AG. The documents are neither approved.
Extended multistep outflow method for the accurate determination of soil hydraulic properties close to water saturation W. Durner und S.C. Iden, SS2012.
Bild 1.1 Copyright © Alfred Mertins | Signaltheorie, 2. Auflage Vieweg+Teubner PLUS Zusatzmaterialien Vieweg+Teubner Verlag | Wiesbaden.
Adjektive Endungen von Frau Templeton.
20:00.
Die Geschichte von Rudi
1 Fachtagung am Seniorenorientiertes Design und Marketing ThyssenKrupp Immobilien Design for all - Anpassungen im Wohnungsbestand 1.Demographie.
Institut AIFB, Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 Towards Automatic Composition of Processes based on Semantic.
...ich seh´es kommen !.
Präsentation läuft auch vollautomatisch ab … wie du möchtest
You need to use your mouse to see this presentation.
Auslegung eines Vorschubantriebes
Deutsch 1 Unit 1 Tag September 2013
1 DMS EXPO 2009 Keynote Angst und Gier Dr. Ulrich Kampffmeyer PROJECT CONSULT Unternehmensberatung Dr. Ulrich Kampffmeyer GmbH Breitenfelder Straße 17.
HORIZONT 1 XINFO ® Das IT - Informationssystem PL/1 Scanner HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 / 540.
Template v5 October 12, Copyright © Infor. All Rights Reserved.
1. 2 Hoffnung und Ausbildung für Kinder ist eine Nächstenliebefunktion, zu garantieren, dass alle Kinder in Afrika die Möglichkeit haben, zur Schule.
Staatsballett Berlin Ein Verbesserungskonzept für den Social- Media Auftritt Your picture here.
Perspektiven – “Perspectives” – Herr Wallace
Vorlesung Mai 2000 Konstruktion des Voronoi-Diagramms II
Symmetrische Blockchiffren DES – der Data Encryption Standard
Nouns. What is a noun O A noun is the name of a person, O place, O animal O or thing.
Europa in der Krise Kiel,
SK / – in Hochkössen, St. Johann i.Tirol und Hochfügen flow Ski- und Snowboardschule Intersport Menzel.
Managemententscheidungsunterstützungssysteme (Ausgewählte Methoden und Fallstudien) ( Die Thesen zur Vorlesung 3) Thema der Vorlesung Lösung der linearen.
Analyseprodukte numerischer Modelle
2014 Januar 2014 So Mo Di Mi Do Fr Sa So
HRM A – G. Grote ETHZ, WS 06/07 HRM A: Work process design Overview.
Schutzvermerk nach DIN 34 beachten 20/05/14 Seite 1 Grundlagen XSoft Lösung :Logische Grundschaltung IEC-Grundlagen und logische Verknüpfungen.
Vortrag von Rechtsanwältin Verena Nedden, Fachanwältin für Steuerrecht zur Veranstaltung Wege zum bedingungslosen Grundeinkommen der Piratenpartei Rhein-Hessen.
Launch ON Global.vi System ID object name classname Services to suscribe Observer Control Ref vi-path Service name Step 1 : Objects register to the Global.vi´s,
Component 4 Frankfurt (Oder) & Slubice Seite 1 COMPONENT 4: – in Frankfurt (Oder) & Slubice 1.All participants presented themselves.
Adjective Endings Nominative & Accusative Cases describing auf deutsch The information contained in this document may not be duplicated or distributed.
How to use and facilitate an OptionFinder Audience Response System.
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
Der Erotik Kalender 2005.
Bildergalerie PRESEASON CAMP Juni 2014 Romanshorn Get ready for the Season!
ekek w ik aiai v ij METHOD FOR AUTOMATED CHOICE OF TECHNICAL PRODUCTS The proposed method is based on automatically classification.
Numbers Greetings and Good-byes All about Me Verbs and Pronouns
1 Medienpädagogischer Forschungsverbund Südwest KIM-Studie 2014 Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
 Präsentation transkript:

FGAN apl. Prof. Dr. Ulrich Schade Konnektionismus 4. Sitzung ( )

FGAN 2 2Techniken Einleitung und Historischer Rückblick Spreading Activation Error-Backpropagation Kohonen-Netze

FGAN Spreading Activation – Probleme Probleme Verrechnung der Aktivierung (Wie gewährleistet man, dass die Aktivierungswerte stets im Intervall [m, M] liegen?) Modellierung von Sequenzen Selektion (Wann liegt das Ergebnis vor?)

FGAN Spreading Activation – Problem 1 a i (t+1) = a i (t)·(1–Θ) + n i (t)·(M – a i (t)), falls n i (t) > 0 a i (t+1) = a i (t)·(1–Θ) + n i (t)·(a i (t) – m), falls n i (t) 0 n i (t) = Σ w ji · a j (t) Es muss gelten: | n i (t) | < 1.0.

FGAN Spreading Activation – Problem 1 n i (t) = Σ w ji · a j (t)Es muss gelten: | n i (t) | < 1.0. Beispiel: Die positiven Leitungsstärken liegen alle bei 0.1. Dann ist n i (t) = 0.1 · Σ a j (t). Senden dann mehr als 10 Knoten positiv Aktivierung an den Knoten i, kann es geschehen, dass | n i (t) | > 1.0 gilt. Bei der Buchstabenerkennung wird der Knoten b1 beispielsweise von allen Wortknoten aktiviert, deren Wörter mit b beginnen. Das können mehr als 10 sein.

FGAN Spreading Activation – Problem 1 Lösungsvorschlag 1: The spreading rule is completely linear, and given that the lexical network only has excitatory connections among ist nodes, the model has the charcteristics of the networks studied by Shrager, Hogg & Huberman (1987). In such networks the decay rate q must be somewhat greater than the spreading rate p to keep the network from entering a phase in which activation levels go haywire. However, when the ratio p/q is small, the network is reasonably well behaved, and it is in this region that the present model operates, specifically where p/q < 0.5. (S. 129) Dell, G.S. (1988). The retrieval of phonological forms in production. Journal of Memory and Language, 27,

FGAN Spreading Activation – Problem 1 Lösungsvorschlag 1 ?? McClelland & Rumelhart (1981):p (Letter Word) = 0.07 p (Word Letter) = 0.3 q = Θ = 0.07 Das entspricht nicht den Voraussetzungen, die Dell nennt. Überdies gilt

FGAN Spreading Activation – Problem 1 Lösungsvorschlag 1 ?? Shrager, J., Hogg, T. & Huberman, B.A. (1987). Observation of phase transitions in spreading activation networks. Science, 236, We consider the case where the activation from each node is divided among the attached nodes according to the weight of their connections. (S. 1093) fanning (Dies passiert weder im Modell von McClelland & Rumelhart, noch im Modell von Dell.)

FGAN Spreading Activation – Problem 1 Lösungsvorschlag 2: Berechnung des Nettoinputs in der Art, in der Wahrscheinlichkeiten berechnet werden. Ziel: | n i (t) | < 1.0. Dazu: Verrechne die eingehenden positiven und die eingehenden negativen Aktivierungen zunächst getrennt: n i (t) = PLUS i (t) – MINUS i (t)

FGAN Spreading Activation – Problem 1 Lösungsvorschlag 2: Berechnung des Nettoinputs in der Art, in der Wahrscheinlichkeiten berechnet werden. n i (t) = PLUS i (t) – MINUS i (t) PLUS i (t) = 1 – Π (1 – w ji · a j (t)) MINUS i (t) = 1 – Π (1 + w ki · a k (t)) Schade, U. (1992). Konnektionismus. Opladen: Westdeutscher Verlag, Abschnitt Achtung: Vorzeichenwechsel !

FGAN Spreading Activation – Problem 1 Beispiel: PLUS i (t) = 1 – Π (1 – w ji · a j (t)) W 1i = W 2i = W 3i = 0.1 a 1 (t) = 0.6; a 2 (t) = 0.9; a 3 (t) = 0.5 PLUS i (t) = 1 – (1 – 0.06)(1 – 0.09)(1 – 0.05) = 1 – 0.94 · 0.91 · 0.95 = 1 – =

FGAN Spreading Activation – Problem 2 Generell gilt: Klassische Modelle haben kein Modellierungsproblem mit Sequentialisierung, wohl aber mit Parallelität. Konnektionistische Modelle haben kein Problem mit Parallelität, wohl aber mit Sequentialisierung.

FGAN Spreading Activation – Problem 2 Wie wird Sequentialisierung in konnektionistischen Modellen modelliert ? Im Modell von McClelland und Rumelhart wird Sequentialisierung faktisch vernachlässigt. Das ist möglich, weil es nur um Buchstabenerkennung und nicht um Worterkennung geht. Diese Frage ist für alle Anwendungsbeispiele zu stellen.

FGAN Spreading Activation – Problem 3 Selektion Wann liegt das Ergebnis vor? Wann greifen wir das Ergebnis ab? Möglichkeit 1: getaktet (= nach N Verrechnungszyklen) Möglichkeit 2: Ermittlung per Selektionsschwelle Das Ergebnis liegt vor, sobald der erste der fraglichen Knoten seine Selektionsschwelle überschreitet.

FGAN Spreading Activation – Problem 3 Selektion Wann liegt das Ergebnis vor? Wann greifen wir das Ergebnis ab? Möglichkeit 1: getaktet (= nach N Verrechnungszyklen) Möglichkeit 2: Ermittlung per Selektionsschwelle Das Ergebnis liegt vor, sobald der erste der fraglichen Knoten seine Selektionsschwelle überschreitet.

FGAN Spreading Activation – Problem 3 Selektion Die Selektionsschwelle ist ein für jeden Knoten individuell festgelegter Wert, der besagt, wie stark der Knoten aktiviert sein muss, damit er als Antwort selektiert werden kann. Diskussion: Reaktionszeitversuche, z.B. zu lexical decision Trick: Mit der Selektionsschwelle kann (alternativ) Häufigkeit repräsentiert werden (statt Ruhewert).

FGAN 17 2Techniken Einleitung und Historischer Rückblick Spreading Activation Error-Backpropagation Kohonen-Netze

FGAN Error-Backpropagation Konnektionistische Netze mit Error Backpropagation sind Verallgemeinerungen des Perzeptrons. Sie besitzen in aller Regel drei Schichten: Eingabeschicht (input layer) Zwischenschicht (hidden layer) Ausgabeschicht (output layer; zeigt das Ergebnis) Aktivierungsausbreitung und Lernen verläuft analog zum Perzeptron.

FGAN Error-Backpropagation Verbindungen: Jeder Knoten der Eingabeschicht ist auf jeden Knoten der Zwischenschicht verbunden, und jeder Knoten der Zwischenschicht ist auf jeden Knoten der Ausgabeschicht verbunden.

FGAN Error-Backpropagation Wiederum gilt: Die Stärke der Verbindungen wird ganz zu Beginn per Zufall festgesetzt. Beim Lernen (Training) werden Muster in der Eingabeschicht angelegt.

FGAN Error-Backpropagation Dann wird zu dem angelegten Muster die Aktivierung in der Zwischenschicht berechnet: mit h i Aktivierung des Zwischenknotens i e j Aktivierung des Eingabeknotens j w ji Stärke der Verbindung von j nach i 1 h i = 1+e -Σ w ji e j

FGAN Error-Backpropagation Dann wird dazu die Aktivierung in der Ausgabeschicht berechnet: mit h i Aktivierung des Zwischenknotens i o k Aktivierung des Ausgabeknotens k w ik Stärke der Verbindung von i nach k 1 o k = 1+e -Σ w ik h i

FGAN Error-Backpropagation Die Aktivierungsfunktion ist eine sigmoide Funktion. f(t) = 1 / (1+ e -t ) f(0) = 0.5 f(+ ) = 1.0 f(- ) = 0.0

FGAN Error-Backpropagation Das Ergebnis ist das Muster, das zu dem Eingabemuster assoziiert wird. Um zu lernen, wird dann das erzielte Ergebnismuster wieder mit dem eigentlich gewünschten Ergebnismuster verglichen. Δo k = o k gewünscht – o k tatsächlich (Fehler der Ausgabeschicht)

FGAN Error-Backpropagation Aus dem Fehler wird eine Änderung der Leitungsstärken von der Zwischenschicht zur Ausgabeschicht berechnet: w ik (neu) = w ik (alt) + Δw ik Δw ik = α · Δo k · h i (α ist die Lernrate: 0 α 1) Bis hierhin kannten wir das alles mehr oder weniger.

FGAN Error-Backpropagation Nun müssten wir aus dem Fehler der Knoten der Zwischenschicht die Änderung der Leitungsstärken von der Eingabeschicht zur Zwischenschicht berechnen. Was aber ist der Fehler der Knoten der Zwischenschicht ?

FGAN Error-Backpropagation Was aber ist der Fehler der Knoten der Zwischenschicht ? Eine Antwort darauf lieferten (endgültig) Rumelhart, McClelland & the PDP Research Group (Eds.) (1986). Parallel Distributed Processing (2 Volumes). Cambridge, MA: MIT Press.

FGAN Error-Backpropagation Was aber ist der Fehler der Knoten der Zwischenschicht ? Die Antwort gaben zuvor schon Werbos, P.J. (1974). Beyond Reasoning. Havard University: Promotionsschrift. Le Chun, Y. (1985). Une procédure d´apprentissage pour réseau à seuil asymétrique. Proceedings of Cognitiva 85, Paris. Parker, D.B. (1985). Learning Logic. Cambridge, MA, MIT, Center for Computational Research in Economics and Management Science.

FGAN Error-Backpropagation Von der Antwort her hat das Verfahren den Namen Error Backpropagation. Der erste Schritt der Bestimmung des Fehlers ist die Modifikation des Fehlers der Ausgabeschicht.

FGAN Error-Backpropagation Fehler der Ausgabeschicht: Δo k = o k gewünscht – o k tatsächlich Δo k = (o k gewünscht – o k tatsächlich ) · o k tatsächlich · (1 – o k tatsächlich ) Die Modifikation bewirkt, dass der Fehler besonders gewichtig ist, wenn o k tatsächlich in etwa 0.5 ist. erzielte Ergebnismuster gewünschtes Ergebnismuster

FGAN Error-Backpropagation Der Fehler der Zwischenschichtknoten: Δh i = ( Σ Δo k · W ik(alt) ) · h i · (1 – h i )

FGAN Error-Backpropagation Aus dem Fehler wird wie üblich die Änderung der Leitungsstärken, in diesem Fall die von der Eingabeschicht zur Zwischenschicht, berechnet: w ji (neu) = w ji (alt) + Δw ji Δw ji = α · Δh i · e j (α ist die Lernrate: 0 α 1)

FGAN Error-Backpropagation Programmablauf (ein Lernzyklus) wähle ein Trainingsmuster; lege das Muster an den Eingabeknoten an; berechne die Aktivierung der Zwischenknoten; berechne die Aktivierung der Ausgabeknoten; berechne die Fehler der Ausgabeknoten; berechne die Änderungen der Verbindungsstärken von den Zwischenknoten zu den Ausgabeknoten; berechne die Fehler der Zwischenknoten; berechne die Änderungen der Verbindungsstärken von den Eingabeknoten zu den Zwischenknoten;

FGAN Error-Backpropagation Programmablauf (gesamt): Trainingsphase: Wähle das Trainingsset für alle Muster aus dem Trainingsset: Lernzyklus Abbruch ?Testphase evtl. Verringerung der Lernrate

FGAN Error-Backpropagation Nächste Woche: Beispiel Probleme und Tricks Behandlung von Sequenzen (Jordan-Elman-Netze)