Neuronale Netze 2 (Mitchell Kap. 4)

Slides:



Advertisements
Ähnliche Präsentationen
Prolog Implementierung Spielregeln
Advertisements

Neuronale Netze & Genetische Algorithmen
Präsentiert von Torben Pastuch
Selbstorganisation und Lernen
Seminarankündigung für das SS04
Perceptrons and the perceptron learning rule
Wismar Business School
Neuronale Netze Folien, Aufgaben sind unter zu finden.
Ein Neuronales Netz könnte lernen indem es …
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
Die vorgeschlagene adaptive Methode filtriert die TCP/IP Verkehr auf der Basis von dem adaptiven Lernen einer KNN mit Paketen-Headers, die verschiedenen.
Genetische Algorithmen für die Variogrammanpassung
Wie lernt FUSC# mit TD( )? Marco Block... X1X1 X2X2 XNXN x1x1 x2x2 pd[i] =w1f1(x) + w2f2(x) + w3f3(x) wnfn(x)... w1f1(x) + w2f2(x) + w3f3(x) +...
Neuronale Netze Von Kay-Patrick Wittbold.
Lernen und Klassifizieren AS-2
Genetische Algorithmen
Genetische Algorithmen
Neuronale Netze Inhalt des Vortrags:
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Uebung 03 Netzdateien.
Biologisches Vorbild Grundlagen
Uebung 02 NN Properties b1b1 b2b2 b3b3 b4b4 b INPUTINPUT OUTPUTOUTPUT w 1o w 2o w 3o w 4o w 11 w 12 w 13 w 14 w 21 w 22 w 23 w 24.
Uebung 01 ANN mit MATLAB.
Datenstrom (Propagation) Fehlerstrom (Backpropagation)
zur Vorlesung Neuronale Netzwerke
Neuronale Netze Romy Kuttner, Franco Haberland.
Quadratische Gleichung
Wismar Business School
Kennlinie Lichtregelung in JavaNNS Version 1.1
Künstlich Neuronale Netze
Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Andere Paradigmen Inhalt dieses Kapitels 8.1 Induktive Logik-Programmierung.
Tutorium
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Machine Learning KNN und andere (Kap. 8).
Maschinelles Lernen und automatische Textklassifikation
Machine Learning Decision Trees (2).
Maschinelles Lernen und automatische Textklassifikation
Effiziente Algorithmen
Neuronale Netze Teil II.
Industrial Projects and Technical Services - ATD TD MCH 8 Information Technology Electronic Design - Test Engineering Herbert Schmidt GmbH Flying Probe.
Why connectionism? Backpropagation Netzwerke
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Zeichnen linearer Funktionen
Adaptive Systeme-2 Grundlagen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Neuronale Netze Nachtrag Perzeptron
Neuronale Netze (1) Isabel Schwende
1 Learning to Construct Knowledge Bases from the World Wide Web Mark Craven, Dan DiPasquo, Dayne Freitag, Andrew McCallum, Tom Mitchell, Kamal, Neigam,
Praktische Optimierung

Künstliches Neuronales Netz nach John Hopfield
Teil 2: Kurven und Flächen
Das Heronverfahren arithmetisches Mittel geometrisches Mittel
SOTA Andrej Gisbrecht
Klassifikation und Regression mittels neuronaler Netze
Rafael, Florian, Patrick
Bienert EDV Software für das 21. Jahrhundert Der Einsatzplaner ist das ideale Hilfsmittel für alle, die Personal zu organisieren.
Positioning in mobile Ad-Hoc Networks Analysis of Quantization-Effects in Distributed Positioning-Algorithms in Mobile Ad-Hoc Networks Semester Arbeit.
Projektgruppe KIMAS NN in MAS
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Institut für Informationssysteme Technische Universität Braunschweig Institut für Informationssysteme Technische Universität Braunschweig Verdrängung von.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
Emanuel Mistretta Lukas Schönbächler
Neuronale Netze und Parallelrechner
 Präsentation transkript:

Neuronale Netze 2 (Mitchell Kap. 4) Machine Learning Neuronale Netze 2 (Mitchell Kap. 4)

Kombination mehrerer Neuronen zwei Klassen, die nicht linear separierbar sind: zwei innere Knoten und ein Output-Knoten Beispiel y h 1 2 A B 1

Mehrschichtiges Netzwerk n Eingabeneuronen X1 X2 … Xn W11 W12 W1p Wn1 Wn2 Wnp Y1 Y2 Ym V11 V12 V1m Vp1 Vp2 Vpm m Ausgabeneuronen p verborgene Neuronen (Hidden layer) Gewichtsmatrix W Gewichtsmatrix V

Design der Netztopologie Bestimmung von Anzahl der Input-Knoten Anzahl der inneren Schichten und jeweilige Anzahl der Knoten Anzahl der Output-Knoten starker Einfluß auf die Klassifikationsgüte: zu wenige Knoten niedrige Klassifikationsgüte zu viele Knoten Overfitting

Aktivierungsfunktionen

Sigmoid Einheit Sigmoid-Funktion:

Sigmoid Einheiten Vorteile: Ausgabefunktion differenzierbar Einfache Berechnung des Gradienten Mehrschichtige Netze aus Sigmoid-Einheiten: Training durch Backpropagation Propagiere Trainingsbeispiel durchs Netz Berechne rückwärts Schicht für Schicht (ausgehend von den Ausgabeneuronen) die Deltas

Beispiel 2-schichtiges Netz zur Erkennung von gesprochener Sprache: Laut zwischen h_d

Lernen mehrschichtiger Netze Prinzipiell zu lernen: Entwicklung neuer Verbindungen Löschen existierender Verbindungen Modifikation der Verbindungsstärke (Veränderung der Gewichte) Modifikation des Schwellenwertes Modifikation der Aktivierungs- bzw. Ausgabefunktion Entwicklung neuer Zellen Löschen bestehender Zellen In der Praxis: Nur Gewichtsmodifikation

Backpropagation Algorithmus Prinzipiell verläuft der Lernprozess wie bei den Perzeptronen: Dem Netz werden Beispiele vorgelegt. Stimmt der Ausgabevektor mit den erwarteten Werten überein, dann muss nichts gemacht werden. Liegt aber ein Fehler vor, d.h. eine Differenz zwischen Ausgabe und Ziel, dann müssen die Gewichte angepasst werden.

Backpropagation Algorithmus In einem Rückwärts-Check (Fehlerrückvermittlung) werden nun die einzelnen Gewichte im Netz (durch  ) nach oben oder unten korrigiert. Der Tendenz nach so, daß das Ergebnis im zurückverfolgten Traingsbeispiel richtiger geworden wäre. Dies führt nach einer Anzahl von Trainingsbeispielen zu einem verbesserten Antwortverhalten des Netzes.

Backpropagation Algorithmus Belege die Gewichte w1 ...wn sowie die Schwellenwerte  mit zufälligen Werten. Wähle einen Eingabevektor aus, zu dem es eine Soll-Aktivierung gibt. 1. Vorwärtsvermittlung: aktiviere die Eingabeschicht, danach schrittweise die Zwischenschichten 1....m und anschließend die Ausgabeschicht 2. Fehlerrückvermittlung: ermittle die -Werte für die Ausgabeschicht, danach schrittweise rückschreitend die -Werte für die Zwischenschichten m .....1 ändere die Gewichte und Schwellenwerte

Backpropagation Algorithmus kann folgendermaßen zusammengefaßt werden:

Backpropagation Algorithmus

Absteigender Gradient

Abbruchbedingungen Anzahl der Iterationen Schwellenwert für quadratischen Fehler In Bezug auf Trainingsmenge (-> große Gefahr von Overfitting) In Bezug auf separate Testmenge (-> Vermeidung von Overfitting!) = Cross-Validation Schwellenwert für Veränderung zum vorigen Schritt

Probleme Lokale Minima Flache Plateaus

Verbesserungen Momentum Paralleles Training mit versch. Initialwerten Häufig wird ein zusätzlicher Faktor (Momentum) hinzugefügt: Idee: Überwindung flacher Plateaus Evt. Auch Überwindung lokaler Maxima Paralleles Training mit versch. Initialwerten

Netztopologie Statische Topologie: Dynamische Topologie Topologie wird apriori festgelegt eine verborgene Schicht reicht in vielen Anwendungen aus Dynamische Topologie dynamisches Hinzufügen von Neuronen (und verborgenen Schichten) solange Klassifikationsgüte signifikant verbessert wird Multiple Topologien Trainieren mehrer dynamischer Netze parallel z.B. je ein Netz mit 1, 2 und 3 verborgenen Schichten

Backward Netzwerke = mehrschichtige Netzwerke von Sigmoid-Einheiten U.U. sehr lange Trainingsphase (mehrere Tausend Iterationen) Nach Training extrem schnell Große Ausdruckskraft: Jede Boole‘sche Funktion kann durch ein 2-schichtiges Netz (1 Hidden Layer) repräsentiert werden (-> disjunktive Normalform) Jede beschränkte stetige Funktion kann beliebig durch ein 2-schichtiges Netz approximiert werden Jede beliebige Funktion kann durch ein 3-schichtiges Netz (2 Hidden Layers) beliebig approximiert werden

Anwendungsbeispiele Texterkennung bei OCR Software, die sich auf gewisse Schriftformen trainieren läßt. Auch bei der Handschrifterkennung für PDA´s (Personal Digital Assistant), wie dem Apple Newton, kommen NN zu Einsatz. 1989: Erkennen von Postleitzahlen auf handgeschriebenen Briefumschlägen. Das gesamte Netz benutzte nur 9760 Gewichte! Das Netz wurde mit 7300 Beispielen trainiert und auf 2000 Beispielen getestet.

Gesichtserkennung

Gesichtserkennung

Aufgaben Bitte installieren und testen Sie die Programme zur Gesichtserkennung (Linux!) http://www-2.cs.cmu.edu/~tom/faces.html Bitte befolgen Sie dabei die Anleitung http://www.cs.cmu.edu/afs/cs.cmu.edu/project/theo-8/faceimages/docs/hw97.ps Bitte beschreiben Sie Ihre Erfahrungen: Liess sich das Programm installieren? Wie ist es zu bedienen? Was/wie haben Sie das Programm ausprobiert und was waren die Resultate?