Präsentation herunterladen
Die Präsentation wird geladen. Bitte warten
Veröffentlicht von:Lucas Kranz Geändert vor über 8 Jahren
1
Projektseminar WS 09/10 Lars Konieczny Daniel Müller Helmut Weldle Konnektionistische Sprachverarbeitung Konnektionismus die zweite 29.10.2009 13.November 2009Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung
2
Organisation Referate Dritter Termin: Freitag 12-14h Simulator: Erstmal Tlearn, dann Lens –Übungsfiles im Materialeinordner 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 2
3
…beim (vor-)letzten Mal Grundprinzipien Konnektionismus – neuronal inspirierte Informationsverarbeitung Kurze Geschichte Formale Grundprinzipien: Begriffe, Symbole und Formeln –Aktivation Netinput Aktivierungsfunktionen –Lernen (Delta-Regel) 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 3
4
Tagesthemen Wiederholung Aktivation und Delta-Regel Repräsentation in KNNs Am Beispiel: Das Jets & Sharks Modell Distributed processing Prototypen Constraint satisfaction Fazit 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 4
5
Wiederholung Aktivierung 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 5 Input Output a i : Aktivation(activation) des Knoten i w ij : Verbindungsstärke/- gewicht(connection weight) von Knoten j zu Knoten i Unit i netinput i ajaj W ij aiai aiai netinput i input ij = a j w j a j w ij netinput i = a i =F(netinput ij ) Knoten/Neuron/Node j Knoten/Neuron/Node i Aktivierungsfunktion F
6
Wiederholung Lernen 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 6 Input Output neue Verbindungen entwickelt, vorhandene Verbindungen löschen Verbindungsgewichte verändern Schwellenwerte von Neuronen verändern Neuronenfunktionen verändern (Aktivierungs-, Propagierungs- und Ausgabefunktion) neue Neurone entwickeln vorhandene Neurone löschen
7
Wiederholung Delta- Regel Δw ij = [a i (soll) - a i (ist)] a j ε Δw ij: Gewichtsveränderung der Verbindung a j : Aktivation des Quellknotens ε : Lernrate 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 7
8
Wie ist Wissen gespeichert? 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 8 DOG[dog] "DOG", [dog] "CAT", [cat] "BAGEL", [bagel] Diskrete Wissenseinheiten (Chunks) Zugriff über Adresse Beispiele: Datenbank, Zettelkasten, Lexikon … Eigenschaften: Schnell, wenn Adresse bekannt, langsam(er), wenn über Inhalt zugegriffen wird Wenn Speicheort zersört wird, ist das Wissen weg Funktioniert menschliches Gedächtnis/Zugriff so?
9
Kognitive Verarbeitung beim Menschen Inhaltsadressierbar Fehlertolerant 'Zerstörungstolerant' Neuronale Signale selbst sind verrauscht Ein gutes Modell sollte diese Eigenschaften auch haben 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 9
10
Ein Beispiel: Jets und Sharks (McClelland 1981) AdresseWerte/Inhalt GangAlterAusbildungFam. standBeruf AlanJets30erJunior HighVerh.Burglar ArtJets40erJunior HighLedigPusher ClydeJets40erJunior HighLedigBookie DaveSharks30erHigh SchoolGesch.Pusher DonSharks30erCollegeVerh.Burglar DougJets30erHigh SchoolLedigBookie FredSharks40erHigh SchoolVerh.Burglar GeneJets20erHigh SchoolLedigPusher ……………… 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 10 "Ist Fred ein Pusher?" "Kennst du den Namen eines Pushers?"
11
Jets & Sharks 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 11 Name Art Dave Fred Beruf Pusher Bookie Burglar Alter 20er 30er 40er Fam. stand ledig verheiratet geschieden Gang Sharks Jets Ausbildung Highschool College Junior High Person 1 Person 2
12
Wie funktioniert's? Gewichte w (fix): –Excitatorisch: +1 –Inhibitorisch: -1 Anfangsaktivation a aller Nodes: -0.1 Anfrage: –"Kennst du einen Pusher?": Aktivierung des 'Pusher' Knotens Läuft über mehrere Zyklen, bis stabiler Zustand erreicht ist (Nodes haben konstantes Aktivationsniveau) 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 12
13
Kennst du den Namen eines Pushers? 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 13 Name Art Dave Fred Beruf Pusher Bookie Burglar Alter 20er 30er 40er Fam. stand ledig verheiratet geschieden Gang Sharks Jets Ausbildung Highschool College Junior High Zyklus 1 Zyklus 2 Zyklus 3 … stabil
14
Do you know the name of a pusher? 3.November 2009 Wechselseitige Hemmung (mutual Inhibition): "winner takes all": Knoten hemmen sich gegenseitig, aber sobald einer die Überhand gewinnt, hemmt er die anderen, diese in damit weniger usw. usw. 14 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung
15
Der kleine Unterschied Initiale Aktivation: Nick: -0.07 Fred: -0.1 Empfindlich (bzw. sensitiv) für Rauschen Kann passieren, das beim nächsten Mal Fragen eine andere Antwort erzeugt wird. ? Ist das wünschenswert? Grundlegende Eigenschaft dynamischer Systeme (Butterflyeffekt) 3.November 2009 15 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung
16
Schreib einen Vogel auf 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 16
17
Prototypen "Nenn mir irgendeinen Vogel" Nicht irgendein Vogel wird genannt, sondern ein 'typischer': (Amsel…….Strauß) Das gleiche passiert auch im J&S Modell 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 17
18
Der prototypische Pusher 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 18 Derjenige Knoten (Namen) wird aktiviert, der am meisten Eigenschaften mit dem Prototypen teilt Prototypen/Typikalität ist automatisch repräsentiert durch die Anzahl (und evtl. das Gewicht) der Verbindungen Ermöglicht auch Einordnung (am ehesten ein …) u.ä.
19
Constraint Satisfaction Jeder Knoten beeinfusst alle, mit denen er verbunden: –Exc: Versuch, anderen Knoten in gleichen Zustand zu versetzen –Inh: Versuch, anderen Knoten in entgegengesetzten Zustand zu versetzen Constraints, die Zielzustand erfüllen soll Constraint Satisfaction 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 19
20
Constraint Satisfaction Idealzustand: Alle Constraints sind erfüllt – nichts passiert mehr Wir aber selten passieren… Aber: Stabiler Zustand, in dem möglichst viele Constraints erfüllt sind: Best Fit / Satisficing Menge der Möglichen Stabilen Zustände: "Erinnerungen" des Netzwerks 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 20
21
Modell von Kognition Entscheidung entsteht durch Konsens unterschiedlicher Evidenzen – keine exaktes Matching notwendig Fehler/Rauschtoleranz –Notwendig angesichts der Eigenschaften des Gehirns –Und angesichts der realen Welt! –Notwendig ist nicht unbedingt die exakte Erinnerung an einen Stimulus (z.B. ein Wort, inklusive Fehler), sondern eine sinnvolle Interpretation! 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 21
22
Kennst du einen… Shark, 20er, High School, ledig, Einbrecher …, Junior High,.. □…,Einbrecher, Dealer, Buchmacher… 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 22 Fehlertoleranz Sinnvolle Antwort, auch bei falschem oder unvollständigem Input
23
Fazit/Rekapitulation Keine Trennung von "Speichern" und "Prozess/Verarbeitung" Art der Modellierung: –Klassisch: Problem Mögl. Lösung Programm Testen –Konnektionistisch Problem Simulation Analyse 3.November 2009 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 23
24
24 j e t z t E N D E ! 3.November 2009Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung
Ähnliche Präsentationen
© 2024 SlidePlayer.org Inc.
All rights reserved.