Konnektionismus: Autoassoziation Übung mit tlearn

Slides:



Advertisements
Ähnliche Präsentationen
Perceptrons and the perceptron learning rule
Advertisements

Zerlegung von Graphen.
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Einführung in NeuroFuzzy Technologien
Seminar “Kognitionspsychologie meets Ethnologie” SS 2007
Einsatzbedingungen des Dokuments im Rahmen des S-O-S-Ansatzes
Neuronale Netze Inhalt des Vortrags:
WS Prof. Dr. Th. Ottmann Algorithmentheorie 09 - Suche in Texten Suffix - Bäume.
Berechnen Sie den Output Vektor wenn der Input Vektor (1,1,-1,-1) ist.
EINI-I Einführung in die Informatik für Naturwissenschaftler und Ingenieure I Vorlesung 2 SWS WS 99/00 Gisbert Dittrich FBI Unido
in den Sportwissenschaften
A. Zündorf, SE Group Reverse Engineering K2 1 Übersicht 1.Quelltextanalyse mit regulären Ausdrücken 2.Compilertechniken 3.Prozessanalyse 4.Dynamische Analyse.
Uebung 03 Netzdateien.
Uebung 02 NN Properties b1b1 b2b2 b3b3 b4b4 b INPUTINPUT OUTPUTOUTPUT w 1o w 2o w 3o w 4o w 11 w 12 w 13 w 14 w 21 w 22 w 23 w 24.
Uebung 01 ANN mit MATLAB.
Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2.
zur Vorlesung Neuronale Netzwerke
Einführung: Theorie Sozio-technischer Systeme – 18.4.
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Neuronale Netze Romy Kuttner, Franco Haberland.
Kennlinie Lichtregelung in JavaNNS Version 1.1
The XeriScape Artificial Society Von: Ralf Kopsch Seminar: Artifical Life.
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
Einführung in die Programmierung
Eltern + Kind Familie–Smiley
Aus.
Input / Wahrnehmung Control / Bewusstsein Output / Motorik Information.
7 b Ursachen und Behandlung Angst - Lernen
LANDESFEUERWEHRSCHULE Folie 1 © Der Wohlfühlweg zum Laufen – Lektion 4 Wie trainiere ich richtig ? auf dem Wohlfühlweg zum Laufen Lektion 4 – die 4. Woche.
Wiederholungsspiel: Nominativ, Akkusativ, Dativ
© Vöslauer 2010 Teamgeist im Hause Vöslauer. © Vöslauer 2010 Teamgeist bringt Mehrwert Wir glauben an die Stärke von Teams, deren Mitglieder sich gegenseitig.
Mein Anliegen Konkrete Selbstverwirklichung Leben = kostbare Chance.
Effiziente Algorithmen
Neuronale Netze.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Was uns das Leben lehrt –
Heute ist der 21. März, Donnerstag. Jede … bringt uns … Schule, …, Bücher, …. Montag, …, Mittwoch, seht, Wie … … … …. Donnerstag und … … Haben wir noch.
Künstliches Neuronales Netz nach John Hopfield
Elman-Netzwerke Wintersemester 2004/05 Seminar Kindlicher Spracherwerb C. Friedrich & R. Assadollahi vorgestellt von Christian Scharinger & Guido Heinecke.
Imperatives.
Bildungszentren Rhein-Ruhr
Auf meinem letzten Trip durch die USA hab ich mir des Amerikaners Liebling genauer betrachtet – DEN BURGER Hier meine Erkenntnisse:
Übung zur Vorlesung „Grundrechte“
Dies ist so rührend!! Lily ist eine Deutsche Dogge, die blind gewesen ist seit einem bizarren medizinischen Zustandes benötigt, dass beide ihre Augen entfernt.
Die KATA im KLASSENZIMMER
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
Projektseminar WS 09/10 Lars Konieczny Daniel Müller Helmut Weldle Konnektionistische Sprachverarbeitung Konnektionismus die zweite November.
PREPOSITIONS PREP. + ACCUSATIVE BIS DURCH FÜR GEGEN OHNE UM ===> KAPITEL 5 PREP. + DATIVE AUS AUSSER BEI GEGENÜBER MIT NACH SEIT VON ZU ===> KAPITEL 7.
Emanuel Mistretta Lukas Schönbächler
ABB STOTZ-KONTAKT GmbH ABB i-bus® KNX Raum Master, Premium, RM/S 2.1
ABB STOTZ-KONTAKT GmbH ABB i-bus® KNX Raum Master, Basic, RM/S 1.1
Simple Recurrent Networks
Titel, z.B. Der richtige Umgang mit dem Folienmaster
„TIERISCHE MITBEWOHNER“
Deutsch I – AA Max Schlenker
Maschinelles Lernen und Neural Computation
Einführung in die Programmierung
Der Hund.
Geld verdienen mit Content-Sharing.
Praxisforum im Rahmen der Tagung «Ihre Zielgruppe: KMU» Weiterbildungsberatung: Der erste Schritt zu einer vertieften Weiterbildungskooperation 26. November.
Nebenordnende Konjunktionen
1. Die rekursive Datenstruktur Liste 1.5 Das Entwurfsmuster Kompositum
Herzlich Willkommen !! zu „Statistik im Kulturbetrieb“ Modul 8, Unit 6
 Präsentation transkript:

Konnektionismus: Autoassoziation Übung mit tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010

Projektseminar Konnektionistische Sprachverarbeitung Autoassoziation McLeod, Plunkett & Rolls (1998): Kapitel 4 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Letztes Mal… Patternassociator Lernregel: Hebb Rule („fire together – wire together“) Eigenschaften: Generalisierung Fehlertoleranz Prototypen Noise removal Interferenz verschiedener Muster 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Heute Teil 1 : Theorie Was ist ein Autoassoziativspeicher? Wie funktionierts? Welche Eigenschaften haben Aas? Teil 2 : Praxis Beispiele in Tlearn (die aus dem Buch) 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Aufgabe/Ziel Patternassociator Assoziiert Muster A mit Muster B Input: Muster A, Output: Muster B Autoassociator Assoziiert ein Muster mit sich selbst Input: Muster A, Output: Muster A  was bringt's??? 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Architektur eines Autoassoziativspeichers Einschichtiges Netzwerk (Input schicht/Outputschicht) Neu: Jeder Knoten (der Outputschicht) ist wiederum mit allen anderen Knoten (außer sich selbst) verknüpft  rekurrente Verbindungen  Jeder Knoten erhält Inputsignal sowohl von außen (externer Input) als auch von allen anderen Knoten des Netztwerks (interner Input/feedback) 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Wie funktioniert‘s? Ziel: Reproduzieren des Inputmusters Wird dadurch erreicht, dass die Gewichte so angepasst werden, so dass extinputi = intinputi  Lernregel: Delta-Regel 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Ausgangslage Aktivierungsfunktion: activity(a)i -1 netinputi 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Initalgewichte: alle 0 Anpassung der Gewichte für Muster 1 (Delta-Rule) Anpassung der Gewichte für Muster 2 Unit 1 2 3 4 5 6 7 8 Ext. Input 1 Aktivierung +1 +0,5 -1 -0,5 Ext. Input 1 Akt. nach Training +1 +0,7 -1 -0,7 Ext. Input 2 Akt. nach Training +1 +0,7 -1 -0,7 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung 1 2 3 4 5 6 7 8 Int Out +1 - + -1 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Gewichtsmatrix Überlagerung der Gewichtsmatrizen Gewicht in GM3 repräsentiert: wahr für beide Muster Jedes Gewicht repäsentiert die Korrelation zwischen den Zuständen der verbundenen Units in den gelernten Mustern: + für pos. Korrelation, - für neg. Korrelation

Pattern Completion & Noise Removal Unit Ext. Input Unit Activity 1 +1 +0,7 +0,6 2 -1 -0,7 -0,6 3 4 5 +0,4 6 7 -0,4 8 +0,1 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Kategoriebildung: Ein Beispiel aus den wahren Leben Aua! Beine weg von Herbert Aua! Beine weg von Bello ??? Beine weg von Hunden! 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Prototypenbildung McClelland & Rumelhart 1985 Katergorienbildung anhand individueller Erfahrungen Viele Hunde, die grob ähnlich sind. Arbiträre Namen 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Hunde, Katzen und Lochbrötchen: Lernen verschiedener Prototypen Bisher: Extraktion eines Protoyps aus verschiedenen individuellen Mustern Sollte natürlich auch möglich sein, verschiedene Prototypen im gleichen Netzwerk zu lernen 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Delta rule 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Beispiel 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung Übung mit tlearn Files aa aa.cf aa.dataa aa.teach … 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung

Projektseminar Konnektionistische Sprachverarbeitung N D 30.04.2019 Projektseminar Konnektionistische Sprachverarbeitung