Konkurrentes Lernen AS-1

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmentheorie 08 – Dynamische Programmierung (4) Editierdistanz Approximative Zeichenkettensuche Sequence Alignment Prof. Dr. Th. Ottmann WS
Advertisements

Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Abschluss Gegeben Menge F von funktionalen Abhängigkeiten.
Wismar Business School
Pascal-Datentypen Skalare Typen Zeiger- Typen Strukturierte Typen
Puck eine visuelle Programmiersprache für die Schule
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken XV Christian Schindelhauer
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken IX Christian Schindelhauer
Adaptive Systeme Prof. Rüdiger Brause WS 2009.
Lernen und Klassifizieren AS-2
Adaptive lineare Transformationen AS-2
Lernen und Klassifizieren AS-1
Objektorientierung mit VBA
Genetische Algorithmen
Genetische Algorithmen
ARRAY oder FELD oder VEKTOR
Algorithmentheorie 02 – Polynomprodukt und Fast Fourier Transformation
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (02 – Funktionenklassen) Prof. Dr. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (02 – Funktionenklassen) Tobias Lauer.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (02 – Funktionenklassen) Prof. Dr. Th. Ottmann.
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
in den Sportwissenschaften
Wismar Business School
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Diskrete Mathematik II Vorlesung 1 SS 2001 Algorithmus von Dijkstra.
Neuronale Netze Teil II.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
BIT – Schaßan – WS 02/03 Basisinformationstechnologie HK-Medien Teil 1, 11.Sitzung WS 02/03.
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive lineare Transformationen AS2-3 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS Lineare Schichten Sequenz linearer Schichten.
Radiale Basis-funktionen AS1-5
Lernen und Klassifizieren AS1-2 Rüdiger Brause: Adaptive Systeme AS-1, WS 2011 Lernen in Multilayer-Netzen Assoziatives Lernen Lernen linearer Klassifikation.
Lernen und Klassifizieren AS1-2
Adaptive Systeme-2 Grundlagen
Adaptive Systeme-2 Prof. Rüdiger Brause WS 2011 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags Uhr, SR9 Übungen.
Evolutionäre Algorithmen AS1-7
Adaptive lineare Transformationen AS-2
Lernen und Klassifizieren AS2-2
Neuronale Netze.
Neuronale Netze Nachtrag Perzeptron
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Programmierung Wintersemester 2009/10 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Programmierung
Einführung in die Programmiersprache C 4
Prozess-synchronisation
Radiale Basis-funktionen
MODULA-2.
Agenda für heute, 22. Juni, 2006 Direkte FilezugriffeDirekte Filezugriffe Datentypen: Mengen Individualisierbare Datentypen.
Agenda für heute, 28. April, 2005 Strukturierte VariablenStrukturierte Variablen Arrays.
Vorkurs Programmierungstechnik Einführung in Pascal Michael Gellner Lehrstuhl für Softwaretechnik am Institut für praktische Informatik der Universität.
Evolutionäre Algorithmen AS1-7
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken VIII Christian Schindelhauer
Der Datentyp Verbund (record)
Delphi Chars und Strings
Extended Pascal ( Erweitreung von Pascal) Name: Mehmet CELIK Matr :
Evolutionäre Algorithmen Rüdiger Brause
Prüfungsbesprechung Barbara Scheuner Vorlesung: Programmieren und Problemlösen Prof. Hans Hinterberger.
Objektorientierte (OO) Programmierung
Dr. Wolfram Amme, Semantik funktionaler Programme, Informatik II, FSU Jena, SS Semantik funktionaler Programme.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
«Wir bereiten uns auf die Deutschlandreise vor»
Liebe BetrachterInnen,
175 Jahre UZH Krisenkommunikation
Jahresablauf und Wetter
Web Scale Discovery Service
Gebäude-Systemtechnik von ABB IP-Gateway
Algorithmen und Datenstrukturen
Prüfungsbesprechung Barbara Scheuner
 Präsentation transkript:

Konkurrentes Lernen AS-1

Idee: Lernen + neue Klassen durch Konkurrenzsituation: Lernparadigmen Das Plastizität vs. Stabilitäts-Dilemma „weiche“, adaptierte Verbindungen Schnelle Anpassung auf veränderte Anforderungen bzw.Umgebung Bessere Reaktion bei veränderter Umgebung Bilden unspezifischer, generalisierter Mittelwertsreaktionen Keine neue Reaktion (Klasse) möglich bei stark veränd. Umgebung „harte“, inflexible, stabile Verbindungen einmal erlangte gute Reaktion bleibt erhalten trotz Ausreisser Bei schlechter Passung (Test!) Bildung neuer Klassen möglich keine Anpassung bei leicht veränderter Umgebung möglich Idee: Lernen + neue Klassen durch Konkurrenzsituation: der Bessere übernimmt und lernt die Klasse Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Selbstorganisierende Karten Somatotopische Karten Selbstorganisierende Karten Anwendung Sprachsynthese Anwendung Robotersteuerung Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Vorbild Gehirn Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Das Vorbild: Gehirnfunktionen Unterteilung des Gehirns in funktionale Bereiche Gehirn = 2-dim „Tuch“ Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Somatotopie Beobachtung: Abbilder, Karten Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Lokale Wechselwirkungen Aktivität in kontinuierlichen Neuronenfeldern Eingabe für Neuron v  Schwelle + laterale Kopplungen Cohen-Grossberg 1983: Aktivität stabil bei symm. Gewichten uij, monoton wachs. y(.) und >0 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Lokale Wechselwirkungen Training: Hebb‘sches Lernen Gewichte Schwelle 1,2 >>  Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Lokale Wechselwirkungen Training zi(t) – zi(t-1) = – zi(t-1) + jwij(t) xj(t) + j uijyj(t) Abklingen der Veränderung, diskrete Strukturen yi(t) = S( jwij(t) xj(t) + j uijyj(t) ) wij(t) = wij(t-1) + [xjyi -B(yi)wij] mit B(.) zum Vergessen Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Lokale Wechselwirkungen Simulation der Aktivität: Populationskodierung niedrige Schwelle hohe Schwelle Abstraktion: Mittelpunkt einer „Blase“. Hier: B(y)=1 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Selbstorganisierende Karten Somatotopische Karten Selbstorganisierende Karten Anwendung Sprachsynthese Anwendung Robotersteuerung Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Kohonennetze: Topologie Eingabedimension n = 3 Ausgabedimension d = 2 Def. „Nachbarschaft“ von Neuronen X= ( ) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Lernalgorithmus Kohonenkarten Suche Neuron (Gewichtsvektor) mit kleinstem Abstand zur Eingabe x winner selection Adaptiere die Gewichte wk(t+1) = wk(t) + (t+1) [x - wk(t)] Adaptiere auch die nächsten Nachbarn wk(t+1) = wk(t) + (t+1) h(t+1,c,k) [x - wk(t)] z.B. mit Winner Take All Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Nachbarschaftsfunktionen Binäre Funktion: zeitabhängig Glockenfunktion h(k,c,t)= exp(k-c,s(t)) c k Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Topologie-Entwicklung Eingabe: uniform-verteilte, 2-dim Zufallszahlen Zeichnung: Verbindungsline vom Gewichtsvektorendpkt zum Nachbarn Zeichnung : t=10000 t=0 t=20 t=100 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Topologie-Entwicklung Beispiel Finger-Sensorikentwicklung Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Topologie-Entwicklung Beispiel Finger-Amputation Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Topologie-Entwicklung Tendenz zur Selbstordnung Iteration für zwei Gewichtsvektoren w1 und w2 bei gleicher Eingabe: Abstand verringert sich (Rechnung) Kein Nachbar überholt den Gewinner (Rechnung) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Pseudocode für Kohonenkarten VAR x: ARRAY [1..n] OF REAL ; (* Muster*) w: ARRAY [1..m,1..m] OF ARRAY [1..n] OF REAL ; (* Gewichte*) vc: RECORD i,j : INTEGER END ; (* sel. Neuron *) BEGIN s s := max ; (* initi al: max. Nachba r schaft *) FOR t:=1 TO tmax DO Read(PatternFile,x) (* Muster erzeugen oder einlesen *) (* Neuron selektieren *) Min:= ABS(x - w [1,1] ); (* initialer Wert *) FOR i:=1 TO m DO (* In allen Spalten *) FOR j:= 1 TO m DO (* und Zeilen *) Abstand := ABS(x - w [i,j] ); (* suche Minimum *) IF Abstand < Min THEN Min := Abstand ; vc.i:=i; vc.j:=j; END END END (* Gewichte adaptieren *) FOR i:= vc.i - s TO vc.i + s DO (* Evaluiere 2 - dim. *) FOR j:= vc.j - s TO vc.j + s DO (* Nachbarschaft um c *) IF i>0 AND i<= m AND j>0 AND j<=m THEN (* Vorsicht am Rand *) w [i,j] = w [i,j] + 1.0/FLOAT( t)*( x - w [i,j] ) ENDIF END END (*i*) GrafikAnzeige (t,w) ( * Visualisierung der Iteration *) upDate ( s ,t) (* Ver kleinerung des Nachbarschaftsradius s *) END (*t*) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Überwachte adaptive Vektorquantisierung Klasse bekannt: Lerne die Klassengrenzen wk(t+1) = wk(t) + (t+1) h(t,c,k)[x - wk(t)] mit h(t,c,k) := h(t,c,k) := 2. Nachbar c‘ ebenfalls Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Selbstorganisierende Karten Somatotopische Karten Selbstorganisierende Karten Anwendung Sprachsynthese Anwendung Robotersteuerung Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

26 ms überlappende Intervalle, alle 10 ms Spracherkennung Beispiel: Neuronale Schreibmaschine Fouriertranformation 200 Hz-5KHz x1 x2 x3 x4 x5 x6 x7 x8 ... x15 Filter 1 Filter 2 Filter 3 Finnisch: 21 vokal. Phoneme, 50 Trainingsmuster pro Phonem. 3 Konsonant. /k/, /p/, /t/ extra! Filter 4 x(t) Filter 5 Merkmalsvektor x(t) Filter 6 Filter 7 Filter 8 . . . Filter 15 26 ms überlappende Intervalle, alle 10 ms Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Spracherkennung Erfolg: ähnliche Phoneme - ähnlicher Ort. z.B. Dynamik des Wortes >>humppila<< Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Spracherkennung Implementierung: Hardware-Platine Leistung Training: 10min/100Worte pro Sprecher Erkennung: 250ms/Wort Leistung 92%-97% richtig erkannt Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Spracherkennung Implementierung 64kB 96kB 512kB Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Selbstorganisierende Karten Somatotopische Karten Selbstorganisierende Karten Anwendg Sprachsynthese Anwendg Robotersteuerung Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung vs. Muskelkontrolle Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Beispiel Puma-Roboter Probleme Kinematik Winkelkoord. Gelenke   kartes. Koord. x Inverse Kinematik kartes. Koord. x  Winkelkoord.  Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Kinematik durch homogene Koord.transformationen Drehung Skalierung Shift W = Wshift  Wrot  Wscal = Inverse Kinematik Analytisch schwierig oder unmöglich! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Inverse Kinematik beim PUMA-Roboterarm Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Inverse Kinematik beim PUMA-Roboterarm Besser: Lernen der inversen Kinematik! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Probleme der Positionskontrolle Änderungen der Armgeometrie sind nicht möglich, sonst Neu-Analyse und Reprogrammierung der Transformation nötig Mehr Gelenke als Freiheitsgrade nur Teilbewegungen möglich Analytische Transformation Kart. KoordGelenk-Koord. langsam Echtzeitprobleme Keine bessere Auflösung an kritischen Stellen Keine automatische Bewegungsoptimierung (z.B. Energie) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Grobe Positionierung Suche Neuron mit Winner-take-all | wk –x | = maxi | wi –x | Assoziiert ist k = (1,2,3) Lernen von wk z.B. mit Kohonen-Netz, oder fest initialisiert Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Feine Positionierung Aktivität grobe Pos. feine Pos. (x) = c +  = c + Ac (x-wc) = Ucx mit Uc = (Ac, c,), x = (x-wc,1) Lernen Uc(t+1) = Uc(t) + h(.)(t+1)[Uc*-Uc(t)] SOM Lernregel Widrow-Hoff Lernregel für Schätzung U* Lehrervorgaben xI : beob. Position durch wc bzw. c xF : beob. finale Position c* = c + Ac(x-xF) Ac* = Ac + Ac[ (x-wc) – (xF-xI) ] (xF-xI)T/ |(xF-xI)|2 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Konvergenzverhalten Grobbewegung c Feinbewegung Ac t = 0 t = 500 t = 10.000 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Vorteile Schnelle Kontrolle, da tabellierte Funktion SOMs steuern auch sehr unkonventioneller Architekturen (Vielgelenksarme, benutzer-definierte Geometrie) Verbesserte Auflösung (Neuronendichte) der topologie-erhaltenden Abbildung in oft benutzten Gebieten : bedarfsabhängige Auflösung! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Vorteile Nebenbedingungen sind einfacher zu integrieren (z.B. Energie) Lerngeschwindigkeit ist durch die Nachbarschaft deutlich beschleunigt (Fluch der Dimensionen gemildert!) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Robotersteuerung Nachteile Die erlernten Transformationstabellen sind fest Zeitsequenzen können nicht erlernt werden (Trajektorien) Es gibt keine Generalisierung oder Abstraktion einer Bewegung; Skalierung der Bewegung ist nicht möglich! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009