Elman-Netzwerke Wintersemester 2004/05 Seminar Kindlicher Spracherwerb C. Friedrich & R. Assadollahi vorgestellt von Christian Scharinger & Guido Heinecke.

Slides:



Advertisements
Ähnliche Präsentationen
Präsentiert von Torben Pastuch
Advertisements

Selbstorganisation und Lernen
Seminarankündigung für das SS04
Agent based computational economics Das Konzept rationalen Verhaltens im Umfeld maschineller Akteure Spezielles Seminar Wirtschaftsinformatik SS2001 Frankfurt.
Perceptrons and the perceptron learning rule
Im Hauptseminar am Non-linear Approach to Grouping, Dynamics and Organizational Informatics of Benthic Macroinvertebrate Communities in Streams.
Bauteile des PC´c Werden vorgestellt: PC-Gehäuse Prozessor Tastatur
Zusatzthemen. Kapitel 5 © Beutelspacher Juni 2004 Seite 2 Inhalt Gleichungssysteme mit Parameter Wurzelgleichungen Irrationale Zahlen Induktion WGMS III.
Ein Neuronales Netz könnte lernen indem es …
On the Criteria to Be Used in Decomposing Systems into Modules
Seminar Textmining WS 06/07 Themen Übung 11 unsupervised vs. supervised Symbolfolgen, Kunstsprachen Page Rank.
Christian A. Kopf Institut für Informatik FU Berlin Episode Recognizer Framework - Rahmenwerk zur Episodenerkennung.
Wie wird die koartikulatorische Nasalisierung im Signal wahrgenommen?
Was ist laut Stevens die Beziehung zwischen dem akustischen Signal, distinktiven Merkmalen und dem Lexikon?
DOM (Document Object Model)
Lernende Agenten Seminar Softwareagenten Wintersemester 2001/2002 Norman Neuhaus.
Berechnen Sie den Output Vektor wenn der Input Vektor (1,1,-1,-1) ist.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
PG 520 Intelligence Service – gezielte Informationen aus dem Internet
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Lernen braucht Bewegung - Überblick für die Praxis -
Die Gestaltpsychologie: von Elisabeth Hertenstein
Silke Berger & Stephanie Haug
aus Sicht der Neuropsychologie
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
The Emergence of a Language in an Evolving Population of Neural Networks Angelo Cangelosi, Domenico Parisi.
Matthias Jauernig Michael Lahl
Kurzüberblick über ereignisgesteuerte Prozessketten (EPK)
Projekt: Routeninstruktionen mit Sprache und Skizzen
Neuronale Netzwerke am Beispiel eines MLP
Die Bedeutung von partikeln hinsichtlich der AspektualitÄt
… bewusst-er-leben Bilingualer Zug OB 1 Realschule mit bilingualem Zug.
Grammatik: Satzbau und Wortbildung
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Zeitdimension des Lernens
Geometrische Netze Erstellung.
Information und Kommunikation
Center for Environmental Systems Research, University of Kassel, Germany CliMA-Kolleg-Seminar am : Modell des sozialen Einflusses und des sozialen.
Gibt es „kurze“ und „lange“ Vokale?
Übersicht - Methodik Studien zur Imitation von Interpretationen klassischer Klavier-Musik durch neuronale Netze.
Context-awareness Andreas Bossard, Matthias Hert.
Paradigmenwechsel in der Unternehmensmodellierung Prof. Dr. Wolfgang Voigt Dipl.-Ing. Päd. Alexander Huwaldt UML Extrakt UML Seminar, Chemnitz
Sprachproduktion und Sprachwahrnehmung
Auswirkungen des DS auf die Entwicklung
Why Connectionism? Friedrich & Assadollahi. Satz Fritz geht nach Hause.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Das Traveling Salesman Problem (TSP)
Wie kommen nun die Wörter in das Langzeit-Gedächtnis?
1 Strukturierung von Situationen (Strukturierung als Lernkomponente) Thomas Höpfel Seminar für Rechtstheorie und Rechtsinformatik WS 2004/05.
Neue Wörter Gaskell & Dumay, 2003 Ausgangssituation: Normalerweise findet sich lexikalischer Wettbewerb (lexical competition) zwischen ähnlichen Wörtern.
Elternabend 2. EK Begrüssung Eindrücke der ersten 6 Wochen Sprache
Wilfried Schley Zürich Michael Schratz Innsbruck
Inhalt Einordnung und Funktion der lexikalische Analyse Grundlagen
Die Präsentation des Lehrers der 21- allgemeinbildenden Schule des Bezirks Peschkö in Gebiet Buchara von Alijor Jahjojev.
Spracherkennung Egon Berger Didaktik der Physik
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
2. Vorlesungseinheit: Grammatik-Übersetzungsmethode
Grammatik und Motivation – ein Widerspruch? Wilfried Krenn
„Backen und St. Martin“ Wochenrückblick vom bis Ein Kind der Riesengruppe brachte uns in dieser Woche eine große Weltkarte von zu Hause.
Sprachen lernen und erwerben: erste Begriffe und Unterscheidungen Dörthe Uphoff FLM 0640 – Februar.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Vo#1:Semantik als Wissenschaft Semantik I Matej-Bel-Universität in Banská Bystrica Zuzana Tuhárska.
Lerndesignarbeit: WAS – WIE sichtbarmachen – WER – WIE - Das Ziel ist das Ziel. Viele Wege führen nach Rom. Lern- & Lehr- prozesse vom Ende her ZIEL START.
Emanuel Mistretta Lukas Schönbächler
Simple Recurrent Networks
Huffman – Kodierbaum zur Textkompression
Die mündliche Darstellung
Neuronale Netze und Parallelrechner
Konnektionismus: Autoassoziation Übung mit tlearn
 Präsentation transkript:

Elman-Netzwerke Wintersemester 2004/05 Seminar Kindlicher Spracherwerb C. Friedrich & R. Assadollahi vorgestellt von Christian Scharinger & Guido Heinecke

...bisher kennengelernt Supervised learning durch backpropagation Implementierung eines Langzeitgedächtnisses Problem: Verarbeitung von Phänomenen, die eine zeitlichen Charakter haben (bei denen der unmittelbare Kontext eine Rolle spielt)

Das Problem mit der Zeit Bei vielen kognitiven Prozessen spielt der Faktor Zeit eine wesentliche Rolle. Beispiel: Sprache – kontinuierliches sich über die Zeit veränderndes Schallsignal Extraktion diskreter Segmente? Lernen der Einheit Wort? Lernen grammatikalischer Kategorien? Richtiger Satzbau? usw.

Das Problem mit der Zeit Zeit kann in feed-forward-Netzen nur explizit über die Eingabe vermittelt werden Unbefriedigend, da: Input muss zwischengespeichert werden, um dem Netz in einem Rutsch präsentiert (und von diesem parallel verarbeitet) werden zu können Problem der Abgrenzung (Wo beginnt/endet mein Input) Inputs unterschiedlicher Länge (d.h. verschiedener zeitlicher Ausdehnung) vgl. Sätze Vektoren [ ] & [ ] gleiches Muster, zeitlich verschoben oder unterschiedliche Vektoren? Kurz: in vielen Fällen wäre eine implizite Darstellung von Zeit durch ein Kurzzeitgedächtnis wünschenswert

Das Problem mit der Zeit - Lösung Rekurrente Netzwerke Sonderfall: einfache rekurrente Netzwerke (Elman- Netze)

Elman-Netzwerke Partially recurrent networks Status der hidden units zum Zeitpunkt t wird unverändert in den context units gespeichert Zum Zeitpunkt t+1 des folgenden Inputs wirkt der Status der context units zusätzlich auf die hidden units ein Implizite Darstellung von Zeit durch die Auswirkungen auf die Verarbeitung des Inputs Kurzzeitgedächtnis

Elman-Netzwerke: Self- supervised learning Elman-Netzwerke lernen durch Autoassoziation Dem Netz wird eine Folge von Inputs gegeben & dabei die Aufgabe gestellt, den nächstfolgenden Input korrekt vorherzusagen nach vielen Trainingsdurchgänge mit vielen Trainingsdaten lernt das Netz bestimmte Regularitäten im Input zu erkennen bzw. abstrakte Kategorien zu bilden Fehlerrate & Aktivität der hidden unit als Nachweis des Lernerfolges

Leistungsfähigkeit von Elman- Netzwerken (1) Das XOR-Problem in temporaler Variante

Erkennen komplexer Regularitäten im Intput Dem Netz wird eine Sequenz von Buchstaben präsentiert Die Reihenfolge der Konsonanten darin ist zufällig; die Vokale durch die Konsonanten bedingt Ersetzungsregeln: b => ba; d => dii; g => guu Buchstaben werden dem Netz als 6-Bit Vektoren präsentiert Aufgabe: Vorhersage des nächstfolgenden Buchstabens Leistungsfähigkeit von Elman- Netzwerken (2)

Leistungsfähigkeit von Elman- Netzwerken (3) Erkennen von Wortgrenzen Lernen des Konzeptes Wort aus einem Lexikon mit 15 Wörtern wurden 200 Sätze generiert Die Buchstaben dieser Sätze wurden dem Netz (als 5- BitVektor codiert) in unmittelbarer Abfolge in mehreren Durchgängen präsentiert

Leistungsfähigkeit von Elman- Netzwerken

Leistungsfähigkeit von Elman- Netzwerken (3)

Lexikalische Klassen