Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2.

Slides:



Advertisements
Ähnliche Präsentationen
Imperative Programmierung
Advertisements

Perceptrons and the perceptron learning rule
Numerische Lösung der 2D Laplace/Poisson-Gleichung
Verschachtelte Schleifen
Das LCA – Problem in Suffixbäumen
Schutzvermerk nach DIN 34 beachten Netzwerk Passiver Teilnehmer.
Übung zur Numerische Geologie
Welches sind die beiden Kirchhoffschen Gesetze, die mit der hier dargestellten Schaltung verifiziert werden können und wie lauten diese?   Kirchhofsche.
FH-Hof Konturen in Rasterdaten Richard Göbel. FH-Hof Idee Identifiziere Konturen (Linien als Grenzen) zwischen verschiedenen Bereichen Kontur ist durch.
Schleifen-beobachtung
Polymorphie (Vielgestaltigkeit)
Polymorphie (Vielgestaltigkeit)
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
Uebung 03 Netzdateien.
Biologisches Vorbild Grundlagen
Uebung 02 NN Properties b1b1 b2b2 b3b3 b4b4 b INPUTINPUT OUTPUTOUTPUT w 1o w 2o w 3o w 4o w 11 w 12 w 13 w 14 w 21 w 22 w 23 w 24.
Uebung 01 ANN mit MATLAB.
Uebung 04 Discriminatoren t(x,y,z) = (x=y)?x;z d(x,y,z) = (x=y)?z;x xyz t d
Uebung 00 Einführung in Matlab. SS 2011H. Werner : DatenalyseÜbung 1 : 2 Matlab - help Wir starten mit dem Help Menuepunkt in Matlab Es öffnet sich ein.
Datenstrom (Propagation) Fehlerstrom (Backpropagation)
zur Vorlesung Neuronale Netzwerke
6. Zusammengesetzte Daten (Verbund)
Wismar Business School
Kennlinie Lichtregelung in JavaNNS Version 1.1
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
boolean Datentyp und Operator
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Kundenspezifische Anpassungen - Ändern von Objekten
Analyse und Entwurf einfacher Schaltnetze aus Grundgattern
Lernmodul Einführung Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Nutzungsbedingungen:
Neuronale Netze Teil II.
Eine Implementierung einer effiziente externe geordnete (!) lineare Liste Operationen: Search(x) Insert(x) Delete(x)
Übungsaufgaben für Microsoft Excel
Why connectionism? Backpropagation Netzwerke
Basisinformationstechnologie HK-Medien
Zeichnen linearer Funktionen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Neuronale Netze (1) Isabel Schwende
Rekursion Rekursive Funktionen, Korrektheit, Terminierung, Rekursion vs. Iteration, Sortieren.
Georg Dorffner / Achim Lewandowski
3.1 Gates und boolesche Algebra
LabView Erste Schritte.
Künstliches Neuronales Netz nach John Hopfield
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
Jamshid Azizi: Folie Isomorphietest Jamshid Azizi
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
Mag. Andreas Starzer weloveIT – EDV Dienstleistungen
B A Materialien für den Technik-Unterricht Bereich: Steuerungstechnik
 exx1.fit in IRIS laden. 167 Bilder  Dies sind Bilder, die bereits gestacked sind.
Schnittpunkt von zwei Geraden
Übung 2 - MdMT Methoden der Medizintechnik Übung zur Vorlesung Folge 2 – Basics Vom ersten Befehl zum Plot.
Tabellen in Word for Windowscomputeria, Urdorf Tabellen in Word for Windows computeria Urdorf / Dieter Eckstein.
On-Demand™ Der “Markt” ist... Demo Modus: mit Hilfe von Grafiken, Sound (Sprache), Text und Animationen werden Lernsequenzen in Folge abgespielt - ähnlich.
Java-Kurs - 3. Übung Hausaufgabe Arrays For-Schleifen.
Rechtevergabe bei Windows 2000 Server Planung und Ausführung Schäffler und Lindauer.
Logische Gatter Lars Lazecky Berufliche Schule der Hansestadt Rostock
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
Christos, Kornelia, Jan Christos, Kornelia, Jan Entwicklungsumgebung Versteht unseren Java Programm Code Versteht unseren Java Programm.
Vorstellen und Herleiten der Horner Schemas
TRUE und FALSE in C Der Wert 0 steht für FALSE Jeder von 0 verschiedene Wert steht für TRUE FALSE wird als 0 dargestellt TRUE wird als 1 dargestellt.
Logische Grundschaltungen
Emanuel Mistretta Lukas Schönbächler
Vom Transistor zum HW-Automaten
Lernmodul Einführung Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Nutzungsbedingungen:
 Präsentation transkript:

Uebung 03 Perceptron Training INPUTINPUT b OUTPUTOUTPUT w1w1 w2w2

SS 2011H. Werner : DatenalyseÜbung 1 : 2 Einfaches Perceptron Wir erzeugen zunächst mal ein einfaches Perceptron mit zwei Input-Neuronen: net = newp([0 1; 0 1],1)

SS 2011H. Werner : DatenalyseÜbung 1 : 3 Ziel: das logische OR Wir wollen das Netzwerk nun so verändern, daß es das logische OR (mit der Wertetabelle: OR ) darstellt. Mit der Visualisierung aus Uebung 01 soll dargestellt werden, wie sich das Netzwerk nach jedem Trainingsschrittauf den Zwischenpunkten des Intervalls [0,1]x[0,1] verhält

SS 2011H. Werner : DatenalyseÜbung 1 : 4 Start: Initialisierung Wir starten mit einer zufälligen Initialisierung: net.IW{1} = rand(1,2) net.b{1} = rand Mit tab = [ ; ] können wir jeweils die Übereinstimmung der Netzausgabe net(tab) mit der OR-Wertetabelle or = [ ] überprüfen

SS 2011H. Werner : DatenalyseÜbung 1 : 5 Training Wir werden hier jeweils die ganze Trainingsdatei pro Trainingsschritt durchgehen (offline Training) Berechnung des Fehlers output_soll – output_ist error = or – net(tab)

SS 2011H. Werner : DatenalyseÜbung 1 : 6 Gewichtsanpassung Wir müssen jede tab-Spalte mit dem Fehler der entsprechenden Eingabe multiplizieren und diese Werte aufaddieren delta_w = tab*error' Anpassung des Schwellwerts delta_e = [ ]*error' das ist dasselbe wie delta_e = sum(error)

SS 2011H. Werner : DatenalyseÜbung 1 : 7 Visualisierung Wir wollen das Verhalten des Netzes nach jedem Anpassungsschritt visualisieren (wie in Übung 0) Vorbereitung: [R,S]=meshgrid(0:0.05:1,0:0.05:1) Der Trainingsprozess läuft in einer Schleife for j=1:no_schritte ab, wobei in jedem Lernschritt die Visualisierung angestoßen wird T=R; for i=1:size(R,1) T(i,:)=net([R(i,:);S(i,:)]); end; mesh(R,S,T); Film(j)=getframe; % erzeugt ein Bild in einem Film Der Film mit diesen Visualisierungen kann dann mit dem Befehl movie(Film); abgespielt werden.

SS 2011H. Werner : DatenalyseÜbung 1 : 8 Aufgabe Programmiere diesen Lernprozess aus für die folgenden logischen Operationen mit tab = [ ; ] or = [ ] nand = [ ] nor = [ ] xor = [ ]