Künstlich Neuronale Netze

Slides:



Advertisements
Ähnliche Präsentationen
Seminarankündigung für das SS04
Advertisements

Perceptrons and the perceptron learning rule
Kap. 7 Sortierverfahren Kap. 7.0 Darstellung, Vorüberlegungen
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Wismar Business School
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Übersicht zu Verfahren des Soft Computing
Einführung in NeuroFuzzy Technologien
<<Presentation Title>>
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Neuronale Netze Von Kay-Patrick Wittbold.
Neuronale Netze Inhalt des Vortrags:
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Integration von maschineller Intelligenz in Automatisierungslösungen
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Uebung 01 ANN mit MATLAB.
Uebung 04 Discriminatoren t(x,y,z) = (x=y)?x;z d(x,y,z) = (x=y)?z;x xyz t d
Datenstrom (Propagation) Fehlerstrom (Backpropagation)
zur Vorlesung Neuronale Netzwerke
Software Design Patterns Extreme Programming (XP).
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
LINUX&NT/ Konkurrenz &Kooperation Dürrenweid Professur systeme Betriebs- CheOpS 1 LINUX & Windows NT - Konkurrenz & Kooperation Historie Konfiguration.
Fuzzy-Klima-Regelung Simulink für Fuzzy Control
Kennlinie Lichtregelung in JavaNNS Version 1.1
Computational Intelligence: Grundlagen Neuronaler Netze (NN)
2 5 SS 2006V_4_Fuzzy_Control_Teil2 1 Was ist CI (Computational Intelligence) Jörg Krone, Ulrich Lehmann, Hans Brenig, Oliver Drölle, Udo Reitz, Michael.
Künstlich Neuronale Netze
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Gesichtserkennung mit Hilfe eines Neuronalen Netzes (SNNS)
11. Neuro-Fuzzy-Regler und -Klassifikation
Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Andere Paradigmen Inhalt dieses Kapitels 8.1 Induktive Logik-Programmierung.
CCNA2 – Module 11 Access Control Lists
FH-Hof HTML - Einführung Richard Göbel. FH-Hof Komponenten des World Wide Webs WWW Browser HyperText Transfer Protocol (HTTP) via Internet WWW Server.
Mailserver-Installation mit LDAP-Schnittstelle für die Firma XYZ GmbH
Matthias Jauernig Michael Lahl
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
Driss Harrou FH D Fachhochschule Düsseldorf 1 Aufgabenstellung - Erstellung eines modularisierten Akquirierungsprogramms für die aerodynamischen Messgrößen.
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Why connectionism? Backpropagation Netzwerke
Entstehung & Einflüsse Ideen, Wünsche, eigene Überlegungen bisheriges Dateisystem Einschrän- kungen: - technisch - zeitlich - fachlich Literatur, ältere.
1 Dipl.-Ing.(FH) Oliver Schulte In Kooperation mit Thema : Objektorientierte Realisierung eines Programms zur Erkennung von Vogelstimmen mit Hilfe Neuronaler.
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive Systeme-2 Grundlagen
Neuronale Netze.
Neuronale Netze Nachtrag Perzeptron
Neuronale Netze (1) Isabel Schwende

Erfindervon Fuzzy Logic
HORIZONT 1 XINFO ® Das IT - Informationssystem PL/1 Scanner HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 / 540.
Vienna University of Technology Pirker Simon 1. Überblick Definition Motivation Vorteile Entwurf von VP Pirker Simon 2.
Programmieren ... in C++ Prof. Dr.-Ing. Franz-Josef Behr, HfT Stuttgart Programmeiren I.
Klassifikation und Regression mittels neuronaler Netze
FuzzyControl++ und NeuroSystems
Vorlage für PPT-Präsentationen {Hier den Titel einsetzen}
Betriebssysteme: Windows-OS
EIN NEUES ENSEMBLE- KLASSIFIKATIONSVERFAHREN Tim Schneider Rotation Forest.
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit
Emanuel Mistretta Lukas Schönbächler
 Präsentation transkript:

Künstlich Neuronale Netze Forschungsverbund Neuronale Fuzzy-Logik Künstlich Neuronale Netze Aufbau, Training, Test und Visualisierung des Backpropagation-Algorithmus auf der Stuttgarter Simulationsplattform SNNS v4.1 Martin Hardes, Ulrich Lehmann 1. Beispiel: 2-Bit Decoder mit Analogausgang

2-Bit Decoder Technologieschema Validierungsdaten: Werden nicht für das Training, sondern für die Validierung des KNN während des Trainings nach jeder Epoche verwendet, um das Verhalten und den Fehler des KNN für unbekannte Datensätze während des Trainings zu validieren. Technologieschema Output Input 1 0,25 2 Z0 0,50 3 1 Z1 0,75 Z0 Z1 n 1 0,25 0,50 0,75 Testdaten: Werden nicht für das Training, sondern für den späteren Test des trainierten KNN verwendet, um das Verhalten und den Fehler des KNN für unbekannte Datensätze zu testen. Trainingsdaten Testdaten

Trainings-, Valid- und Testdaten werden in PATTERN- Dateien abgelegt Decoder_train.pat SNNS pattern definition file V3.2 generated at Thu Jun 08 18:53:43 2000 No. of patterns : 3 No. of input units : 2 No. of output units : 1 # Input 1: 0 0 # target 1: # Input 2: 0 1 # target 2: 0.25 # Input 3: 1 1 # target 3: 0.75 Trainingsdaten

Trainings-, Validierungs- und Testdaten werden in PATTERN- Dateien abgelegt Decoder_valid.pat SNNS pattern definition file V3.2 generated at Thu Jun 08 18:53:43 2000 No. of patterns : 1 No. of input units : 2 No. of output units : 1 # Input 1: 1 0 # target 1: 0.5 Validierungsdaten

Trainings-, Valid- und Testdaten werden in PATTERN- Dateien abgelegt Decoder_test.pat SNNS pattern definition file V3.2 generated at Thu Jun 08 19:50:56 2000 No. of patterns : 1 No. of input units : 2 # Input 1: 1 0 Testdaten

Erstellen eines Feedforward Netzes für das Decoder Beispiel Bignet

Darstellung der Netzstrukturen mit DISPLAY  Decoder.net Aktivierung des Neurons siehe nächste Folie

Aufbau des Neurons mit Aktivierungs- bzw. Ausgangsfunktion a = f (net) 3  bias 3 aj(t) = (1+e - ( net j (t) +  ) ) -1 mit   bias x1 = a1= o1 w13 y3 = a3  = net3 a = f (net3 +Bias) netj (t) =  ( wij · oi ) Aktivierung:0,144 -4,952 1 2 3 Aktivierung:0,502 Bias:1,437 Ausgabewerte Neuronen 1 und 2 (linear): oi = ai = 0,144 Netzeingabe: net3 = (w13 * o1) + (w23 * o2) net3 = (-4,952*0,144)+(-4,952*0,144) = -1,426 Aktivierungsfunktion (sigmoid): aj = 1/(1+e-(netj + bias)) a3= 1/(1+e-(-1,426 + 1,437)) = 0,502 w23 x2 = a2 = o2 Neuron 3

Darstellung der Aktivierungs- bzw. Ausgangsfunktion -4,952 1 2 3 Aktivierung:0,502 Bias:1,437 Ausgabefunktion (linear) : oi = ai = 0,144 Netzeingabe: net3 = (w13 * o1) + (w23 * o2) net3 = (-4,952*0,144)+(-4,952*0,144) = -1,426 Aktivierungsfunktion (sigmoid) : aj = 1/(1+e-(netj + bias)) a3= 1/(1+e-(-1,426 + 1,437)) = 0,502 3  bias 3 net3 (t) =  ( wij · oi )

NET-Dateien in Textformat SNNS network definition file V1.4-3D generated at Thu Aug 12 16:15:18 1999 network name : dec_testd_x source files : no. of units : 5 no. of connections : 6 no. of unit types : 0 no. of site types : 0 learning function : Rprop update function : Topological_Order unit default section : act | bias | st | subnet | layer | act func | out func -----------|-----------|----|----------|------- |------------------|------------- 0.00000| 0.00000| h | 0| 1 | Act_Logistic | Out_Identity -----------|-----------|----|----------|--------|------------------|------------- unit definition section : no. | typeName | unitName | act | bias | st | position | act func | out func | ----|--------------|---------------|------------|------------|----|------------|----------|------------|- 1 | | in1 | 0.00000 | 0.00000 | i | 2,2,-4349 | | | 2 | | in2 | 0.00000 | 0.00000 | i | 2,3,-4349 | | | 3 | | h1 | 0.00000 | 0.00000 | h | 5,2,-4349 | | | 4 | | h2 | 0.00000 | 0.00000 | h | 5,3,-4349 | | | 5 | | out | 0.00000 | 0.00000 | o | 8,2,-4349 | | | connection definition section : target | site | source:weight --------|------|--------------------------------------------------------------------------------------- 3 | | 1: 0.00000, 2: 0.00000 4 | | 1: 0.00000, 2: 0.00000 5 | | 3: 0.00000, 4: 0.00000 Decoder.net

Vorbereitung des Lernvorgangs des Decodernetzes decoder.net und dec_XXX.pat laden

Durchführung des Lernvorgangs des Decodernetzes Control-Panel und Graph-Panel öffnen und Lernparameter im Control-Panel einstellen

Modifiziertes BPG-Lernverfahren Resilient Propagation Bestimmung des Betrags der Gewichtsveränderung Bestimmung Gewichtsveränderung ij (t-1)  + falls S(t-1) S(t) > 0 ij (t-1)  - falls S(t-1) S(t) < 0 ij (t-1) sonst Δij (t) -ij (t) falls S(t-1) S(t) > 0  S(t) > 0 ij (t) falls S(t-1) S(t) > 0  S(t) < 0 -wij (t-1) falls S(t-1) S(t) < 0 -sgn (S(t)) ij (t) sonst Δwij (t) η+ = 1,2 und η- =0,5 (bei SNNS voreingestellt) Δwij (t) Δwij (t-1) t+1 t t-1 Im Beispiel links: S(t-1) S(t) > 0  S(t) > 0 E wij wij (t+1) = wij (t) + Δwij (t)

Lernkurve, Gewichtsveränderung und Bias- im Decodernetz während des Lernvorgangs 50 Epochen 100 Epochen 225 Epochen 20 Epochen 10 Epochen 0 Epochen Lernkurve im Graph Aktivierung und Gewichte Bias und Gewichte

Beispiel zur Berechnung der Aktivierung mittels Aktivierungs- und Ausgangsfunktion Ausgangssituation: Abschluß des Lernvorgangs nach 225 Epochen Eingangsfunktion (linear): netj (t) =  ( wij · oi ) Aktivierungsfunktion (sigmoid): aj(t) = (1+e - ( net j (t) +  ) ) -1 mit   bias   Berechnung der Aktivierung im Neuron 3: net3= (1.000 · -2.264) + (0.000 · -1.552) = -2.264 a3= (1 + e-(-2.264+0.486))-1 = 0.144 Berechnung der Aktivierung im Neuron 5 net5= (0.144 · -4.952) + (0.144 · -4.952) = -1.426 a5= (1 + e-(-1.426+1.437))-1 = 0.502 Aktivierung: 0,144 -4,952 Bias: 0,486 Aktivierung: 0,000 -1,552 Aktivierung: 1,000 -2,264 3 1 5 Aktivierung: 0,502 2 4 Bias: 0,000 Bias: 1,437 -1,552 2 4 Bias: 0,000 Bias: 0,486

Gewichtsverteilung im KNN nach dem Lernvorgang Gewichtsverteilung im Decodernetz mit Ausgabe des Ausgangswertes bei Verwendung der Testdaten

Darstellung der Ergebnisse nach dem Lernvorgang Tabelle mit vom KNN berechneten Ausgangswerten des Decoders Z0 Z1 Soll- Ausgangswert Ausgangswert nach [TEST] 0,000 0,009 1 0,250 0,500 0,502 0,750 0,749 Trainingsdaten Validierungsdaten Testdaten

Vor (+)- und Nachteile (-) von KNN keine mathematischen Prozessmodelle erforderlich (besonders vorteilhaft, bei nichtlinearen oder unbekannten Zusammenhängen) Fähigkeit zur Generalisierung beispielbasiertes Lernen (wie bei den Kindern!!!) Selbstorganisation und Adaptionsfähigkeit massive Parallelität (pro Neuron ein Prozessor möglich) Echtzeitfähigkeit (in der Produktionsphase) Fehlertoleranz (ein bis zu 60% zerstörtes Netz bleibt funktionsfähig) Ergebnisse nicht nachvollziehbar je nach Problemstellung viele Lernmuster erforderlich ( 0,5 nm mit n-Eingängen und m-Datenmuster pro Eingang sowie 50% der Muster als Trainingsdaten) bei komplexen Aufgaben hohe Trainingszeiten (bis zu einigen Stunden auf High Performance PC) schlechte, nicht gesicherte Konvergenz des Trainingsergebnisses Abhängigkeit des Lernergebnisses von der Qualität der Merkmalextraktion Vielfalt von Modellen und KNN-Typen

Bewertung der Simulationsumgebung SNNS 4.1 SNNS wurde für Unix Workstations geschrieben und ist auf Windows Rechnern nur mit X-Windows (X-Server) lauffähig (X-Windows ist kostenlos nur als Testversion mit max. Laufzeit 2 h verfügbar). - Grafische Oberfläche von SNNS unter Windows schwer zu bedienen (ein Button muss mit der Maus genau fokussiert werden). - Mit SNNS sind umfangreiche Netztopologien und Parametrierungen der Netze möglich. + Unkomplizierter Einstieg mit Durchführungsbeispiel im Bedienerhandbuch. + Umfangreiche Beispieldatenbank mit vielen untrainierten und trainierten Netzen verschiedenster Struktur. +

Literaturverzeichnis und Quellen Lehmann, Herold, Leupold: Digitale Regelungen / Prozessrechner. Vorlesungsskript, MFH Iserlohn 1991 Zell, A.: Simulation Neuronaler Netze, Addison-Wesley Verlag 1996 Zell, A. et. al.: SNNS-Manual (PDF). At2-Server des CAS.Lab (Computer Architecture & Systems) der FH SW Campus Iserlohn Lehmann, U.; Bongards, M.; Johannes, H.: Fortschritt-Bericht VDI: Neuronale Fuzzy-Logik. VDI Verlag GmbH Düsseldorf 2000 Ulrich Lehmann: Neuro-Fuzzy-Systeme, Vorlesung an der FH Südwestfalen Campus Iserlohn, Iserlohn 2000