Neuronale Netze Teil II.

Slides:



Advertisements
Ähnliche Präsentationen
Selbstorganisation und Lernen
Advertisements

Seminarankündigung für das SS04
Perceptrons and the perceptron learning rule
Kohonennetze für Information Retrieval mit User Feedback
Wismar Business School
Neuronale Netze Folien, Aufgaben sind unter zu finden.
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Wismar Business School
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Statistische Methoden in der Hochenergiephysik
Marvin Minsky und das Perceptron
Neuronale Netze Von Kay-Patrick Wittbold.
Konkurrentes Lernen AS-1
Minimieren ohne Ableitungen
Formale Sprachen – Mächtigkeit von Maschinenmodellen
Neuronale Netze Inhalt des Vortrags:
ARRAY oder FELD oder VEKTOR
Prinzipien des Algorithmenentwurfs Backtracking Prof. Dr. Th. Ottmann
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Übersicht I Künstliche Intelligenz II Problemlösen
Biologisches Vorbild Grundlagen
RBF-Netze, Learning Vector Quantisation, Kohonen-Karten
Uebung 01 ANN mit MATLAB.
Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2.
Datenstrom (Propagation) Fehlerstrom (Backpropagation)
zur Vorlesung Neuronale Netzwerke
Selbstorganisierende Neuronale Netze
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Neuronale Netze Romy Kuttner, Franco Haberland.
Quadratische Gleichung
Wismar Business School
Kennlinie Lichtregelung in JavaNNS Version 1.1
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
1 Seminar Künstliche Intelligenz Self-Organized Formation of Various Invariant-Features in the Adaptive-Subspace SOM von Michael Brückner.
DataMining Von Daten zu Informationen und Wissen
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme-2 Grundlagen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Polynome und schnelle Fourier-Transformation
Neuronale Netze.
Neuronale Netze (1) Isabel Schwende
Praktische Optimierung

Künstliches Neuronales Netz nach John Hopfield
Wahrscheinlichkeitsrechnung
SOTA Andrej Gisbrecht
Klassifikation und Regression mittels neuronaler Netze
Fourier-Analyse und technologische Anwendungen
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
SS 2009Maschinelles Lernen und Neural Computation 107 Kapitel 6: Unüberwachtes Lernen.
Projektgruppe KIMAS NN in MAS
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Funktionen Buffer Kathrina Schmidt Die Funktion Buffer (die „Pufferzone“ um räumliche Objekte) von Kathrina Schmidt.
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Dr. Wolfram Amme, Semantik funktionaler Programme, Informatik II, FSU Jena, SS Semantik funktionaler Programme.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung.
Clusteranalyse Wege und Arten Entstanden im Rahmen der Seminararbeit für WS09/10 Betreuer: Prof. Jobst Hoffmann Dr. Tim Hiddemann Aachen, Januar 2010.
J. Nürnberger2007 / 081 Tabellenkalkulation (3) Arbeiten mit Formeln am Beispiel von OpenOffice.org Calc.
Emanuel Mistretta Lukas Schönbächler
Simple Recurrent Networks
Einführung in Web- und Data-Science
Neuronale Netze und Parallelrechner
 Präsentation transkript:

Neuronale Netze Teil II

Neuronale Netze (Wiederholung) Modell zur Berechenbarkeit -> Mathematische Modell -> Turing -> Commputer -> Zellularautomaten -> Neuronale Netze Mc Culloch/ Pitts Neuron -> Keine Gewichte -> Absolute Hemmung -> keine Lernregel (Gewichte müssen von Hand angepasst werden) -> Treppenfunktion als Ausgabe -> realisierbar zB. And und Or

Perzeptron -> Gewichte -> Trennt Eingaberaum in zwei Regionen (als geometrische Veranschaulichung) ->Erweiterter Eingabevektor -> Relative Hemmung -> Aus Mc Culloch/ Pitts Neuronen und Perceptronen lassen sich äquivalente Netze konstruieren.

Lernen Überwachtes Lernen Unüberwachtes Lernen Korrigierendes Lernen Konkurrenz Verstärkungs Lernen Verstärkung -> Perzeptron lernen -> Cluster Zuordnung, als Verallgemeinerung des Perzeptrons

Cluster Zuordnung als Beispiel für unüberwachtes Lernen durch Konkurrenz Aufbau, siehe Tafel Lernalgorithmus: Start: Belegung der Gewichte mit zufälligen Werten. Testen: Ein Eingabevektor wird zufällig ausgewählt, das Neuron das auf diesen mit der Stärksten Erregung antwortet wird korrigiert. Korrigieren: Gewichtsvektor des stärksten Neuronen wird ersetzt durch Gewichtsvektor plus Eingabevektor, danach Normierung.

Backpropagation -> Erfunden in den 70‘ern, richtig bekannt ab 1985 durch Rumelhart et. Al -> am weitesten verbreitete Lernmethode -> Sucht Minimum durch Abstieg in Gradientenrichtung der Fehlerfunktion. Dieses Minimum ist dann Lösung. -> Aktivierungsfunktion ist jetzt Sigmode. Fehlerfunktion: Sigmode:

Verlauf der Sigmode für verschiedene c. Gelb: c = 1 Blau: c = 4 Rot: c = 100 Für große c nähert sich die Sigmode immer mehr der Stufenfunktion an. C wird auch Temperatur genannt. Ableitung der Sigmode ist (bei c = 1): Da Überall Diffbar., ist auch die Fehlerfunktion überall Diffbar., und fast nirgendwo völlig flach.

Schritte des Lernalgorithmus Feedforward Berechnung Backpropagation bis zur Ausgabeschicht Backpropagation bis zur verborgenen Schicht Korrektur der Gewichte

1.) Feedforward Berechnung Eingabevektor o an den Eingabestellen einlegen. Am Ende wird der Fehler E ausgegeben. An allen Neuronen wird die Ableitung der Sigmode gespeichert. 2.) Backpropagation bis zur Ausgabeschicht Finden von der partiellen Ableitung von E nach w2 durch:

3.) Backpropagation bis zur verborgenen Schicht. Finden der Ableitung von E nach w1 durch: 4.) Korrektur der Gewichte Jetzt da die partiellen Ableitungen der Fehlerfunktion bekannt sind und damit auch der Gradient, müssen nur noch die Gewichte angepasst werden.

Das ganze in Matrixform: (an der Tafel)

Variationen des Backpropagation-Verfahrens Backpropagation mit variabler Schrittlänge Ändern der Konvergenzgeschwindigkeit durch Variation der Lernkonstante Backpropagation mit Impuls Wobei alpha empirisch festgelegt wird (Rumelhart, Hinton, Williams: alpha ca. 0,9).

Anwendungen der Backpropagation Netze Datenkompression, Mustererkennung, Robotik, Spracherkennung, Sprachausgabe, Erkennung von Zeitreihen (Börse)

Assoziative Speicher Rekursive Netze 3 Klassen von Assoziativ Speichern -> Heteroassoziative S. : -> Autoassoziative S. : -> Mustererkennung: Struktur: XW=Y , alles Vektoren Bipolare Vektoren: -> leichtere Mathematische Ausdrücke -> einfachere Speicherung orthogonaler Vektoren ->Signum Funktion als Aktivierungsfunktion

Self Organized Maps Teuvo Kohonen, Finne (1982,1984) Topologieerhaltene Abbildungen -> keine expliziete Ausgabe -> keine Fehlerfunktion -> Lernen während des Betriebes (selbständige) Kartierung des Eingaberaums Für Eingabe aus a1 feuert nur ein Neuron

Sensorische Karten im Gehirn -> biologischer Hintergrund (Gehirn 2D <-> Augen 3D) -> Topologieerhaltend Abgebildet (Benachtbarter Input -> Benachtbarte Region)(Auge,Tastsinn,Motorische Rinde) -> benachtbarte Zellen beinflussen sich während der Lernphase Nachbarschaftsfunktion phi(i,k)

Lernalgorithmus Start: Zufällige Auswahl der Gewichte. Anfangswerte für Nachbarscahftsradius und Lernkonstante Schritt 1: Zufällige Eingabe Schritt 2: Neuron mit maximaler Erregung wird ermittelt. (minimaler Abstand zwischen Eingabe und Gewichten) Schritt 3: Aktualisierung der Gewichte der Nachbarschaft des Neurons. Schritt 4: Änderung der Lernkonstante und oder des Radius oder Abbruch

->Auch 2D Raster möglich. ->Projektion auf niedrigere Dimension durch Faltung

Anwendungen: ->Kartierung von Funktionen (x,y,f(x,y))(adaptive Tabelle für Funktionswerte) ->Kartierung von Räumen (Robotersteuerung) Quellen: -> Theroie der neuronalen Netze (Rojas, Springer) -> Theoretical Neuroscience (Peter Dayan and L.F. Abbott) -> Diverse Seiten aus dem Internet (Wikipedia ,,,)