Neuronale Netze Nachtrag Perzeptron

Slides:



Advertisements
Ähnliche Präsentationen
Christian Scheideler SS 2009
Advertisements

Perceptrons and the perceptron learning rule
Programmierung 1 - Repetitorium WS 2002/2003 Programmierung 1 - Repetitorium Andreas Augustin und Marc Wagner Homepage:
Polynomial Root Isolation
Schwierigkeit von Aufgabenstellungen
Übungsbetrieb Di neuer Raum HZO 60
Prof. Dr. W. Conen 15. November 2004
Wie lösen wir ILPs exakt?
Marvin Minsky und das Perceptron
Einige entscheidbare bzw. rekursiv aufzählbare Sprachen
Verifizieren versus Berechnen
Algorithmentheorie 04 –Hashing
Informatik II, SS 2008 Algorithmen und Datenstrukturen Vorlesung 16 Prof. Dr. Thomas Ottmann Algorithmen & Datenstrukturen, Institut für Informatik Fakultät.
Kapitel 5 Stetigkeit.
Kapitel 1 Das Schubfachprinzip
Christian Schindelhauer
Christian Schindelhauer
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Klausuraufgaben.
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
Minimum Spanning Tree: MST
§14 Basis und Dimension (14.1) Definition: V sei wieder ein K-Vektorraum. Eine Menge B von Vektoren aus V heißt Basis von V, wenn B ist Erzeugendensystem.
§14 Basis und Dimension  (14.1) Definition: V sei wieder ein K-Vektorraum. Eine Menge B von Vektoren aus V heißt Basis von V, wenn B ist Erzeugendensystem.
Grundlagen der Künstlichen Intelligenz
SLR(1)-Parser Basiert auf LR(0)-Item-Mengen, wie LR(0)-Parser. Zusätzlich wird für Reduktionen bei Follow(X) als Vorschau- menge benutzt. LR(1)-Parser.
Neuronale Netze (Mitchell Kap. 4)
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Diskrete Mathematik II Vorlesung 1 SS 2001 Algorithmus von Dijkstra.
Effiziente Algorithmen
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Effiziente Algorithmen
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Lernen und Klassifizieren AS2-2
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Effiziente Algorithmen
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt WS 06/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Mehrkriterielle Optimierung mit Metaheuristiken
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
SOTA Andrej Gisbrecht
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Analyse der Laufzeit von Algorithmen
Bipartite Graphen Der Satz von König.
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Der A*-Algorithmus.
 Präsentation transkript:

Neuronale Netze Nachtrag Perzeptron SS 2009 Gunther Heidemann

Perzeptron Eine Menge von Mustern {x},  = 1, 2, …, soll von M Diskriminanten yi(x) = ∑j=1…,L wij ∙ j(x), i = 1 … M, klassifiziert werden, die jedem x eine Klasse   {1…M} zuordnen gemäß (x) = arg maxi yi(x). NN Perzeptron

Perzeptron-Lernregel Wähle ein Beispiel x und berechne yi(x) = ∑j=1…,L wij ∙ (x). Ist y(x) > yi(x)  i ≠  ? Ja: Korrekte Antwort, goto 1. Nein: Es gibt ein m ≠  mit ym(x) > yi(x) )  i ≠ m. Lernschritt: ∆wmj = − j(x), ∆wj = j(x). Goto 1. NN Perzeptron

Perzeptron-Konvergenzsatz Es existiere ein  > 0 und ein Satz von Gewichten {w*ij}, i = 1…M, j = 1…L, so dass für alle Trainings-Paare (x,(x)),  = 1, 2, … , gilt y*(x) ≥ y*j(x) +   j ≠ (x). Dann konvergiert die Perzeptron-Lernregel in endlich vielen Schritten zu Gewichten wmj, für die kein Klassifikationsfehler mehr auftritt. NN Perzeptron

Beweis der Perzeptron-Konvergenz Betrachte Q = A / (B ∙ B*)1/2 = (∑ij wij ∙ w*ij ) / ((∑ij wij2 )1/2 ∙ (∑ij w*ij2 )1/2 ) ≤ 1, mit A = ∑ij wij ∙ w*ij B = (∑ij wij2 ) B* = (∑ij w*ij2 ) Beweisidee: Zeige, dass Q für jeden Lernschritt um mindestens eine feste Größe ∆Q wächst. NN Perzeptron

Beweis der Perzeptron-Konvergenz Betrachte A unter einem Lernschritt: ∆A = ∑ij w*ij ∙ ∆wij = ∑j w*mj ∙ ∆wmj + w*j ∙ ∆wj (m = fälschlicher Gewinner) = ∑j w*mj ∙ (−j(x)) + ∑j w*j ∙ j(x) ≥  ∆B = ∑ij ((wij + ∆wij)2 − wij2) = ∑ij 2wij ∙ ∆wij + ∆wij2 = 2 ∑j (wj ∙ j(x) − wmj ∙ j(x)) + 2 ∑j j2(x) = 2 ∑j (y(x) − ym(x)) + 2 ∑j j2(x) < 2 ∑j j2(x) <  denn y(x) − ym(x) < 0 wegen der Fehlerbedingung. NN Perzeptron

Beweis der Perzeptron-Konvergenz Nach n Lernschritten: A(n) = A(0) + n ∙  B(n) = B(0) + n ∙  Q > (A(0) + n ∙ ) / ((B(0) + n ∙ ) ∙ B*)1/2 ≤ 1 Da der Zähler linear in n, der Nenner weniger als linear in n wächst, wird Q immer größer und muss nach endlich vielen Schritten 1 erreichen. Abschätzung der erforderlichen Anzahl von Lernschritten: Einfachster Fall: wij (0) = 0, A(0) = 0, B(0) = 0. Q > (n1/2 ∙ ) / (1/2 ∙ B*) ≤ 1 n ≤  ∙ B*2 / 2 ≤ 2 ∙ maxx ∑j j2(x) ∙ B*2 / 2 NN Perzeptron