Künstlich Neuronale Netze

Slides:



Advertisements
Ähnliche Präsentationen
Web 2.0 Social Network Communities
Advertisements

Seminarankündigung für das SS04
Imperative Programmierung
Perceptrons and the perceptron learning rule
Kap. 7 Sortierverfahren Kap. 7.0 Darstellung, Vorüberlegungen
Wismar Business School
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
Bild 2.1. Logisches Symbol für D-Kippglied und Fotografie
SQL Server 2005.NET Integration Sebastian Weber Developer Evangelist Microsoft Deutschland GmbH.
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Übung 2.1 Information Wieviele Fragen benötigen Sie beim „Zahlenraten“
Neuronale Netze Von Kay-Patrick Wittbold.
Datentechnik12. Übung THS, 15.November 2006 Testen hochintegrierter Schaltungen Übung 2: SCOAP-Algorithmus Ralph Weper.
Neuronale Netze Inhalt des Vortrags:
Kompressionsverfahren für Texte
Dynamische Programmierung (2) Matrixkettenprodukt
WS Algorithmentheorie 01 – Divide and Conquer (Segmentschnitt) Prof. Dr. Th. Ottmann.
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 2.1.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
Wir suchen ‘ mit m = m    ‘ c  ‘ mod 26
Uebung 02 NN Properties b1b1 b2b2 b3b3 b4b4 b INPUTINPUT OUTPUTOUTPUT w 1o w 2o w 3o w 4o w 11 w 12 w 13 w 14 w 21 w 22 w 23 w 24.
Uebung 01 ANN mit MATLAB.
Uebung 04 Discriminatoren t(x,y,z) = (x=y)?x;z d(x,y,z) = (x=y)?z;x xyz t d
zur Vorlesung Neuronale Netzwerke
Software Design Patterns Extreme Programming (XP).
DVG Kommentare1 Kommentare. DVG Kommentare 2 Kommentare Es gibt zwei Arten von Kommentaren: einzeilige Kommentare // der Kommentar geht.
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
Künstlich Neuronale Netze
Kennlinie Lichtregelung in JavaNNS Version 1.1
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Gesichtserkennung mit Hilfe eines Neuronalen Netzes (SNNS)
Struktur-Funktions-Modelle von Pflanzen - Sommersemester Winfried Kurth Universität Göttingen, Lehrstuhl Computergrafik und Ökologische Informatik.
CCNA2 – Module 11 Access Control Lists
FH-Hof HTML - Einführung Richard Göbel. FH-Hof Komponenten des World Wide Webs WWW Browser HyperText Transfer Protocol (HTTP) via Internet WWW Server.
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
Driss Harrou FH D Fachhochschule Düsseldorf 1 Aufgabenstellung - Erstellung eines modularisierten Akquirierungsprogramms für die aerodynamischen Messgrößen.
20:00.
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Clustered Neuronal Network A C#.NET project for Compute Cluster Server 2003.
Why connectionism? Backpropagation Netzwerke
Entstehung & Einflüsse Ideen, Wünsche, eigene Überlegungen bisheriges Dateisystem Einschrän- kungen: - technisch - zeitlich - fachlich Literatur, ältere.
Aufgabenzettel V Statistik I
PULSION Medical Systems SE
1 Dipl.-Ing.(FH) Oliver Schulte In Kooperation mit Thema : Objektorientierte Realisierung eines Programms zur Erkennung von Vogelstimmen mit Hilfe Neuronaler.
Adaptive Systeme-2 Grundlagen
Praktische Optimierung
HORIZONT 1 XINFO ® Das IT - Informationssystem PL/1 Scanner HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 / 540.
Symmetrische Blockchiffren DES – der Data Encryption Standard
SQLite und XML in PHP 5.
Verdichten von Daten mit Gruppenfunktionen
Klassifikation und Regression mittels neuronaler Netze
FuzzyControl++ und NeuroSystems
Vorlage für PPT-Präsentationen {Hier den Titel einsetzen}
Diese Beschreibung enthält indikative Werte. Sie ist weder ein Angebot noch eine Aufforderung zum Abschluß eines bestimmten Geschäftes. Trotz Anwendung.
1 Medienpädagogischer Forschungsverbund Südwest KIM-Studie 2014 Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
Betriebssysteme: Windows-OS
Univ.-Prof. Dr.-Ing. H. Nacken Vorlesung Wasserwirtschaftliche Modellierung Themen: Vorlesung 8 Neuronale Netze (ANN) Trainingsformen von Neuronalen Netzen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Erstellung eines Expandable Banners und Hochladen in MediaMind.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit
Emanuel Mistretta Lukas Schönbächler
 Präsentation transkript:

Künstlich Neuronale Netze Forschungsverbund Neuronale Fuzzy-Logik Künstlich Neuronale Netze Aufbau, Training und Visualisierung auf der Stuttgarter Simulationsplattform SNNS v4.1 Martin Hardes 2. Anhand zweier Beispiele: - 2-Bit Decoder - Kennlinie

2-Bit Decoder Kennlinie 0 0 0 1 1 0 1 1 1 2 3 4 Z0 Z1 Input Output Testdaten Z0 Z1 n 1 0,25 0,50 0,75 Trainingsdaten Testdaten

Trainings-, Valid- und Testdaten werden in PATTERN- Dateien abgelegt Decoder_train.pat Kennline_train.pat SNNS pattern definition file V3.2 generated at Thu Jun 08 18:53:43 2000 No. of patterns : 3 No. of input units : 2 No. of output units : 1 # Input 1: 0 0 # target 1: # Input 2: 0 1 # target 2: 0.25 # Input 3: 1 1 # target 3: 0.75 SNNS pattern definition file V3.2 generated at Thu Jun 08 18:53:43 2000 No. of patterns : 9 No. of input units : 1 No. of output units : 1 # Input 1: 0.1500 # target 1: # Input 2: 0.2375 # target 2: 0.1527 # Input 3: 0.3250 # target 3: 0.1610 # Input 4: 0.4125 # target 4: 0.1939 # Input 5: 0.5000 # target 5: 0.3257 # Input 6: 0.5875 # target 6: 0.6771 # Input 7: 0.6750 # target 7: 0.8089 # Input 8: 0.7625 # target 8: 0.8418 # Input 9: 0.8500 # target 9:

Trainings-, Valid- und Testdaten werden in PATTERN- Dateien abgelegt Decoder_valid.pat Kennline_valid.pat SNNS pattern definition file V3.2 generated at Thu Jun 08 18:53:43 2000 No. of patterns : 1 No. of input units : 2 No. of output units : 1 # Input 1: 1 0 # target 1: 0.5 SNNS pattern definition file V3.2 generated at Thu Jun 08 18:53:43 2000 No. of patterns : 1 No. of input units : 1 No. of output units : 1 # Input 1: 0.63125 # target 1: 0.7750

Trainings-, Valid- und Testdaten werden in PATTERN- Dateien abgelegt Decoder_test.pat Kennline_test.pat SNNS pattern definition file V3.2 generated at Thu Jun 08 19:50:56 2000 No. of patterns : 1 No. of input units : 2 # Input 1: 1 0 SNNS pattern definition file V3.2 generated at Thu Jun 08 18:53:43 2000 No. of patterns : 1 No. of input units : 1 # Input 1: 0.63125

Erstellen eines Feedforward Netzes für das Decoder Beispiel Bignet

Darstellung der Netzstrukturen mit DISPLAY  Decoder.net  Kennlinie.net

Darstellung der Aktivierungsfunktion -4,952 1 2 3 Aktivierung:0,502 Bias:1,437 Ausgabefunktion (linear) : oi = ai = 0,144 Netzeingabe: net3 = (w13 * o1) + (w23 * o2) net3 = (-4,952*0,144)+(-4,952*0,144) = -1,426 Aktivierungsfunktion (sigmoid) : aj = 1/(1+e-(netj + bias)) a3= 1/(1+e-(-1,426 + 1,437)) = 0,502

Decoder.net Darstellung der NET-Dateien in Textformat SNNS network definition file V1.4-3D generated at Thu Aug 12 16:15:18 1999 network name : dec_testd_x source files : no. of units : 5 no. of connections : 6 no. of unit types : 0 no. of site types : 0 learning function : Rprop update function : Topological_Order unit default section : act | bias | st | subnet | layer | act func | out func -----------|-----------|----|----------|------- |------------------|------------- 0.00000| 0.00000| h | 0| 1 | Act_Logistic | Out_Identity -----------|-----------|----|----------|--------|------------------|------------- unit definition section : no. | typeName | unitName | act | bias | st | position | act func | out func | ----|--------------|---------------|------------|------------|----|------------|----------|------------|- 1 | | in1 | 0.00000 | 0.00000 | i | 2,2,-4349 | | | 2 | | in2 | 0.00000 | 0.00000 | i | 2,3,-4349 | | | 3 | | h1 | 0.00000 | 0.00000 | h | 5,2,-4349 | | | 4 | | h2 | 0.00000 | 0.00000 | h | 5,3,-4349 | | | 5 | | out | 0.00000 | 0.00000 | o | 8,2,-4349 | | | connection definition section : target | site | source:weight --------|------|--------------------------------------------------------------------------------------- 3 | | 1: 0.00000, 2: 0.00000 4 | | 1: 0.00000, 2: 0.00000 5 | | 3: 0.00000, 4: 0.00000 Decoder.net

Kennline.net Darstellung der NET-Dateien in Textformat SNNS network definition file V1.4-3D generated at Thu Aug 12 17:33:23 1999 network name : kennline source files : no. of units : 8 no. of connections : 14 no. of unit types : 0 no. of site types : 0 learning function : Rprop update function : Topological_Order unit default section : act | bias | st | subnet | layer | act func | out func -----------|------------|----|----------|--------|-----------------|------------- 0.00000 | 0.00000| h | 0 | 1 | Act_Logistic | Out_Identity unit definition section : no. | typeName | unitName | act | bias | st | position | act func | out func | ----|---------------|--------------|------------|------------|----|-----------|----------|-------------|-- 1 | | in | 0.00000 | 0.00000 | i | 2, 2, 0 | | | 2 | | h11 | 0.00000 | 0.00000 | h | 5, 2, 0 | | | 3 | | h12 | 0.00000 | 0.00000 | h | 5, 3, 0 | | | 4 | | h13 | 0.00000 | 0.00000 | h | 5, 4, 0 | | | 5 | | h14 | 0.00000 | 0.00000 | h | 5, 5, 0 | | | 6 | | h21 | 0.00000 | 0.00000 | h | 8, 2, 0 | | | 7 | | h21 | 0.00000 | 0.00000 | h | 8, 3, 0 | | | 8 | | out | 0.00000 | 0.00000 | o | 11, 2, 0 | | | connection definition section : target | site | source:weight --------|------|----------------------------------------------------------------------------- 2 | | 1: 0.00000 3 | | 1: 0.00000 4 | | 1: 0.00000 5 | | 1: 0.00000 6 | | 2: 0.00000, 3: 0.00000, 4: 0.00000, 5: 0.00000 7 | | 2: 0.00000, 3: 0.00000, 4: 0.00000, 5: 0.00000 8 | | 6: 0.00000, 7: 0.00000

Durchführung des Lernvorgangs des Decodernetzes decoder.net und dec_XXXX.pat laden

Durchführung des Lernvorgangs des Decodernetzes Control-Panel und Graph-Panel öffnen und Lernparameter im Control-Panel einstellen

Beschreibung des Lernverfahrens Resilient Propagation Bestimmung des Betrags der Gewichtsveränderung Bestimmung Gewichtsveränderung ij (t-1)  + falls S(t-1) S(t) > 0 ij (t-1)  - falls S(t-1) S(t) < 0 ij (t-1) sonst Δij (t) -ij (t) falls S(t-1) S(t) > 0  S(t) > 0 ij (t) falls S(t-1) S(t) > 0  S(t) < 0 -wij (t-1) falls S(t-1) S(t) < 0 -sgn (S(t)) ij (t) sonst Δwij (t) η+ = 1,2 und η- =0,5 (bei SNNS voreingestellt) Δwij (t) Δwij (t-1) t+1 t t-1 Im Beispiel links: S(t-1) S(t) > 0  S(t) > 0 E wij wij (t+1) = wij (t) + Δwij (t)

Darstellung der Gewichtsveränderung im Decodernetz während des Lernvorgangs 50 Epochen 100 Epochen 225 Epochen 20 Epochen 0 Epochen 10 Epochen Lernkurve im Graph Aktivierung und Gewichte Bias und Gewichte

Beispiel zur Berechnung der Aktivierung mittels Aktivierungs- und Ausgangsfunktion Ausgangssituation: Abschluß des Lernvorgangs nach 225 Epochen Ausgangsfunktion (linear): netj (t) =  ( wij · oi ) Aktivierungsfunktion (sigmoid): aj(t) = (1+e - ( net j (t) +  ) ) -1 mit   bias   Berechnung der Aktivierung im Neuron 3: net3= (1.000 · -2.264) + (0.000 · -1.552) = -2.264 a3= (1 + e-(-2.264+0.486))-1 = 0.144 Berechnung der Aktivierung im Neuron 5 net5= (0.144 · -4.952) + (0.144 · -4.952) = -1.426 a5= (1 + e-(-1.426+1.437))-1 = 0.502 Aktivierung: 0,144 -4,952 Bias: 0,486 Aktivierung: 0,000 -1,552 Aktivierung: 1,000 -2,264 3 1 5 Aktivierung: 0,502 2 4 Bias: 0,000 Bias: 1,437 -1,552 2 4 Bias: 0,000 Bias: 0,486

Darstellung der Ergebnisse nach dem Lernvorgang Gewichtsverteilung im Decodernetz mit Ausgabe des Ausgangswertes bei Verwendung der Testdaten Gewichtsverteilung im Kennliniennetz mit Ausgabe des Ausgangswertes bei Verwendung der Testdaten

Darstellung der Ergebnisse nach dem Lernvorgang Kennlinie mit vom KNN berechneten Y-Werten Sollwerte Gelernte Werte Tabelle mit vom KNN berechneten Ausgangswerten des Decoders Z1 Z2 Soll- Ausgangswert Ausgangswert nach [TEST] 0,000 0,009 1 0,250 0,500 0,502 0,750 0,749 Testdaten

Bewertung des Projektes SNNS wurde für Unix Workstations geschrieben und ist auf Windows Rechnern nur mit X-Windows lauffähig (X-Windows ist kostenlos nur als Testversion mit max. Laufzeit 2 h verfügbar) - Grafische Oberfläche von SNNS unter Windows schwer zu bedienen (ein Button muss mit der Maus genau fokussiert werden). - Mit SNNS sind umfangreiche Netztopologien und Parametrierungen der Netze möglich. + Unkomplizierter Einstieg mit Durchführungsbeispiel im Bedienerhandbuch + Umfangreiche Beispieldatenbank mit vielen untrainierten und trainierten Netzen verschiedenster Struktur +