Projektseminar WS 09/10 Lars Konieczny Daniel Müller Helmut Weldle Konnektionistische Sprachverarbeitung Konnektionismus die zweite 29.10.2009 13.November.

Slides:



Advertisements
Ähnliche Präsentationen
Selbstorganisation und Lernen
Advertisements

Perceptrons and the perceptron learning rule
Statistische Aspekte der PSG
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Indizierung von Graphen durch häufige Subgraphen (2)
4. Logik – und ihre Bedeutung für WBS
8 Behandlung von Begriffen 8.1 Grundlagen aus Logik und Psychologie
Universität des Saarlandes Fachbereich Informatik Lehrstuhl Prof. Dr
Neuronale Netze Von Kay-Patrick Wittbold.
Konkurrentes Lernen AS-1
Motivation Richard Göbel.
Neuronale Netze Inhalt des Vortrags:
WS Prof. Dr. Th. Ottmann Algorithmentheorie 09 - Suche in Texten Suffix - Bäume.
Was ist ein kognitives System?
in den Sportwissenschaften
Vorstellungsbildung im Literaturunterricht
Vorstellungsbildung im Literaturunterricht
Kognitive Robotik Eine Einführung
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Was ist ein Modell ? Repräsentiert Zugang: Mathematik Zugang: Empirie
aus Sicht der Neuropsychologie
zur Vorlesung Neuronale Netzwerke
Intelligentes Crawling im WWW mit Hilfe intuitiver Suchbedingungen
Neuronale Netze Romy Kuttner, Franco Haberland.
Dieter Bergmann, Lichtenfels
Kennlinie Lichtregelung in JavaNNS Version 1.1
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
Maschinelles Lernen und automatische Textklassifikation
1 Knowledge Discovery mit Wordnet und Alembic Workbench (Julia Faion) (Markus Reiter)
Input / Wahrnehmung Control / Bewusstsein Output / Motorik Information.
7 b Ursachen und Behandlung Angst - Lernen
Unterwegs im Internet.
INKARNATIONS-Vertrag ..
Why connectionism? Backpropagation Netzwerke
Theorien, Methoden, Modelle und Praxis
Ein Spanischlehrer erklärte seiner Klasse dass im Spanischen, anders als im Englischen, die Namen entweder männlich oder weiblich sind. "Haus" zum Beispiel,
die Kraft aller Elemente
Adaptive Systeme-2 Grundlagen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Hartmut Klauck Universität Frankfurt SS
Neuronale Netze.
Erfindervon Fuzzy Logic
Meins & Vogel GmbH, Tel. (07153) , Sicher im Internet – Nur eine Illusion? Vortrag im Rahmen eines Info-Abends Meins und Vogel.
Grundlagen der Informatik - Prof. Slany 1 Grundlagen der Informatik Prof. Wolfgang SLANY.
Jahrgang 9 G- Kurs Pytagoras
Petrinetze 1. Einführung Informatik : wesentlich Modellierung von
Programmierpraktikum II SS 2000 Projektgruppe 5 Clemens Bauer Peter Eisenmann Thomas Frommwald Daniel Kadir Michael Liedlgruber ALGAE.
Neuronale Netze - Anwendungen in Chemie und Verfahrenstechnik
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Kopf und Computer Gerhard Vollmer
Using Reflexive Behaviors of the Medicinal Leech to Study Information Processing William B. Kristan Jr., Sawn R. Lockery und John E. Lewis.
Ich mag dich nicht, weil DU bist, wer DU bist, sondern dafür, wer ICH bin, wenn ich mit Dir zusammen bin.
Arten von Hacker und Virenangriffen
Prozessoren (CPU) Ahmet Aktas, HWI I.
Einführung in die Informationsverarbeitung Teil Thaller Stunde V: Wege und warum man sie geht Graphen. Köln 14. Januar 2016.
Projektseminar WS 09/10 Lars Konieczny Daniel Müller Helmut Weldle Konnektionistische Sprachverarbeitung.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Vo#1:Semantik als Wissenschaft Semantik I Matej-Bel-Universität in Banská Bystrica Zuzana Tuhárska.
Einheit 8 Berufe.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
Emanuel Mistretta Lukas Schönbächler
Simple Recurrent Networks
Eine Produktion von der Firma Presentations GmbH
Konnektionismus: Autoassoziation Übung mit tlearn
 Präsentation transkript:

Projektseminar WS 09/10 Lars Konieczny Daniel Müller Helmut Weldle Konnektionistische Sprachverarbeitung Konnektionismus die zweite November 2009Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung

Organisation Referate Dritter Termin: Freitag 12-14h Simulator: Erstmal Tlearn, dann Lens –Übungsfiles im Materialeinordner 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 2

…beim (vor-)letzten Mal Grundprinzipien Konnektionismus – neuronal inspirierte Informationsverarbeitung Kurze Geschichte Formale Grundprinzipien: Begriffe, Symbole und Formeln –Aktivation Netinput Aktivierungsfunktionen –Lernen (Delta-Regel) 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 3

Tagesthemen Wiederholung Aktivation und Delta-Regel Repräsentation in KNNs Am Beispiel: Das Jets & Sharks Modell Distributed processing Prototypen Constraint satisfaction Fazit 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 4

Wiederholung Aktivierung 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 5 Input Output a i : Aktivation(activation) des Knoten i w ij : Verbindungsstärke/- gewicht(connection weight) von Knoten j zu Knoten i Unit i netinput i ajaj W ij aiai aiai netinput i input ij = a j w j a j w ij netinput i = a i =F(netinput ij ) Knoten/Neuron/Node j Knoten/Neuron/Node i Aktivierungsfunktion F

Wiederholung Lernen 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 6 Input Output neue Verbindungen entwickelt, vorhandene Verbindungen löschen Verbindungsgewichte verändern Schwellenwerte von Neuronen verändern Neuronenfunktionen verändern (Aktivierungs-, Propagierungs- und Ausgabefunktion) neue Neurone entwickeln vorhandene Neurone löschen

Wiederholung Delta- Regel Δw ij = [a i (soll) - a i (ist)] a j ε Δw ij: Gewichtsveränderung der Verbindung a j : Aktivation des Quellknotens ε : Lernrate 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 7

Wie ist Wissen gespeichert? 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 8 DOG[dog] "DOG", [dog] "CAT", [cat] "BAGEL", [bagel] Diskrete Wissenseinheiten (Chunks) Zugriff über Adresse Beispiele: Datenbank, Zettelkasten, Lexikon … Eigenschaften: Schnell, wenn Adresse bekannt, langsam(er), wenn über Inhalt zugegriffen wird Wenn Speicheort zersört wird, ist das Wissen weg Funktioniert menschliches Gedächtnis/Zugriff so?

Kognitive Verarbeitung beim Menschen Inhaltsadressierbar Fehlertolerant 'Zerstörungstolerant' Neuronale Signale selbst sind verrauscht  Ein gutes Modell sollte diese Eigenschaften auch haben 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 9

Ein Beispiel: Jets und Sharks (McClelland 1981) AdresseWerte/Inhalt GangAlterAusbildungFam. standBeruf AlanJets30erJunior HighVerh.Burglar ArtJets40erJunior HighLedigPusher ClydeJets40erJunior HighLedigBookie DaveSharks30erHigh SchoolGesch.Pusher DonSharks30erCollegeVerh.Burglar DougJets30erHigh SchoolLedigBookie FredSharks40erHigh SchoolVerh.Burglar GeneJets20erHigh SchoolLedigPusher ……………… 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 10 "Ist Fred ein Pusher?" "Kennst du den Namen eines Pushers?"

Jets & Sharks 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 11 Name Art Dave Fred Beruf Pusher Bookie Burglar Alter 20er 30er 40er Fam. stand ledig verheiratet geschieden Gang Sharks Jets Ausbildung Highschool College Junior High Person 1 Person 2

Wie funktioniert's? Gewichte w (fix): –Excitatorisch: +1 –Inhibitorisch: -1 Anfangsaktivation a aller Nodes: -0.1 Anfrage: –"Kennst du einen Pusher?": Aktivierung des 'Pusher' Knotens Läuft über mehrere Zyklen, bis stabiler Zustand erreicht ist (Nodes haben konstantes Aktivationsniveau) 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 12

Kennst du den Namen eines Pushers? 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 13 Name Art Dave Fred Beruf Pusher Bookie Burglar Alter 20er 30er 40er Fam. stand ledig verheiratet geschieden Gang Sharks Jets Ausbildung Highschool College Junior High Zyklus 1 Zyklus 2 Zyklus 3 … stabil

Do you know the name of a pusher? 3.November 2009 Wechselseitige Hemmung (mutual Inhibition): "winner takes all": Knoten hemmen sich gegenseitig, aber sobald einer die Überhand gewinnt, hemmt er die anderen, diese in damit weniger usw. usw. 14 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung

Der kleine Unterschied Initiale Aktivation: Nick: Fred: -0.1  Empfindlich (bzw. sensitiv) für Rauschen Kann passieren, das beim nächsten Mal Fragen eine andere Antwort erzeugt wird. ? Ist das wünschenswert? Grundlegende Eigenschaft dynamischer Systeme (Butterflyeffekt) 3.November Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung

Schreib einen Vogel auf 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 16

Prototypen "Nenn mir irgendeinen Vogel"  Nicht irgendein Vogel wird genannt, sondern ein 'typischer': (Amsel…….Strauß) Das gleiche passiert auch im J&S Modell 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 17

Der prototypische Pusher 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 18  Derjenige Knoten (Namen) wird aktiviert, der am meisten Eigenschaften mit dem Prototypen teilt  Prototypen/Typikalität ist automatisch repräsentiert durch die Anzahl (und evtl. das Gewicht) der Verbindungen  Ermöglicht auch Einordnung (am ehesten ein …) u.ä.

Constraint Satisfaction Jeder Knoten beeinfusst alle, mit denen er verbunden: –Exc: Versuch, anderen Knoten in gleichen Zustand zu versetzen –Inh: Versuch, anderen Knoten in entgegengesetzten Zustand zu versetzen  Constraints, die Zielzustand erfüllen soll Constraint Satisfaction 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 19

Constraint Satisfaction Idealzustand: Alle Constraints sind erfüllt – nichts passiert mehr Wir aber selten passieren… Aber: Stabiler Zustand, in dem möglichst viele Constraints erfüllt sind: Best Fit / Satisficing Menge der Möglichen Stabilen Zustände: "Erinnerungen" des Netzwerks 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 20

Modell von Kognition Entscheidung entsteht durch Konsens unterschiedlicher Evidenzen – keine exaktes Matching notwendig  Fehler/Rauschtoleranz –Notwendig angesichts der Eigenschaften des Gehirns –Und angesichts der realen Welt! –Notwendig ist nicht unbedingt die exakte Erinnerung an einen Stimulus (z.B. ein Wort, inklusive Fehler), sondern eine sinnvolle Interpretation! 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 21

Kennst du einen… Shark, 20er, High School, ledig, Einbrecher  …, Junior High,.. □…,Einbrecher, Dealer, Buchmacher… 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 22 Fehlertoleranz Sinnvolle Antwort, auch bei falschem oder unvollständigem Input

Fazit/Rekapitulation Keine Trennung von "Speichern" und "Prozess/Verarbeitung" Art der Modellierung: –Klassisch: Problem Mögl. Lösung  Programm Testen –Konnektionistisch Problem Simulation Analyse 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 23

24 j e t z t E N D E ! 3.November 2009Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung