Adaptive Systeme-2 Grundlagen

Slides:



Advertisements
Ähnliche Präsentationen
Präsentiert von Torben Pastuch
Advertisements

Seminarankündigung für das SS04
Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Marvin Minsky und das Perceptron
Neuronale Netze Von Kay-Patrick Wittbold.
Einführung in Berechenbarkeit und Formale Sprachen
Adaptive Systeme Prof. Rüdiger Brause WS 2009.
Konkurrentes Lernen AS-1
Lernen und Klassifizieren AS-2
Adaptive lineare Transformationen AS-2
Adaptive lineare Transformationen AS-1
1 Computergestützte Verifikation Symbolisches Model Checking 4.1 CTL Model Checking mit Binary Decision Diagrams (1. Systeme 2. Spezifikationen.
Neuronale Netze Inhalt des Vortrags:
WS Algorithmentheorie 01 – Divide and Conquer (Segmentschnitt) Prof. Dr. Th. Ottmann.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen Organisatorisches zu den Übungen Tobias Lauer.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
in den Sportwissenschaften
Diskrete Mathematik I Vorlesung Arrays-
Klausur „Diskrete Mathematik II“
High Performance = Innovative Computer Systems + Efficient Algorithms Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen.
Entwicklung von Simulationsmodellen
Biologisches Vorbild Grundlagen
Uebung 01 ANN mit MATLAB.
zur Vorlesung Neuronale Netzwerke
Neuronale Netze Romy Kuttner, Franco Haberland.
Praktikum Künstliche Intelligenz
Praktikum Künstliche Intelligenz
Übung zur Vorlesung Künstliche Intelligenz Vorbereitungstreffen: Organisatorisches und Einführung.
Übung zur Vorlesung Künstliche Intelligenz
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Modellierung von Baumstrukturen mit einem einzigen Polygonnetz
Neuronale Netze (Mitchell Kap. 4)
Neuronale Netze 2 (Mitchell Kap. 4)
(Un-)sicherheiten in der Ökosystemmodellierung
Neuronale Netze Teil II.
Computerorientierte Physik VORLESUNG Zeit: jeweils Mo Uhr Ort: Hörsaal 5.01, Institut für Experimentalphysik, Universitätsplatz 5, A-8010.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Adaptive lineare Transformationen AS-1
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive lineare Transformationen AS2-3 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS Lineare Schichten Sequenz linearer Schichten.
Adaptive Systeme-2 Prof. Rüdiger Brause WS 2011 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags Uhr, SR9 Übungen.
Evolutionäre Algorithmen AS1-7
Adaptive lineare Transformationen AS-2
Hartmut Klauck Universität Frankfurt WS 04/05
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Neuronale Netze.
Muskelkontraktion.
Neuronale Netze (1) Isabel Schwende
Praktische Optimierung
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Praktische Optimierung
Einführung in die Programmierung Wintersemester 2013/14 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
CEF 2001, New Haven Genetic Neural Fuzzy Explorer GENEFER Konzeption, Technologien und Einsatzmöglichkeiten Eric Ringhut Muenster Institute for Computational.
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Managemententscheidungsunterstützungssysteme (Ausgewählte Methoden und Fallstudien) ( Die Thesen zur Vorlesung 3) Thema der Vorlesung Lösung der linearen.
Radiale Basis-funktionen
Klassifikation und Regression mittels neuronaler Netze
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Evolutionäre Algorithmen AS1-7
Adaptive Modellierung und Simulation Kapitel 1: Einleitung
Christian Scheideler WS 2008
Evolutionärer Entwurf neuronaler Netze
Evolutionäre Algorithmen Rüdiger Brause
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
Algorithmen und Datenstrukturen
Algorithmen und Datenstrukturen
 Präsentation transkript:

Adaptive Systeme-2 Grundlagen Prof. Rüdiger Brause WS 2013

Organisation „Einführung in adaptive Systeme“ B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 „Adaptive Systeme“ M-AS-2 (Theorie) Vorlesung Donnerstags 10-12 Uhr, SR 9 Übungen Donnerstags 13-14 Uhr, SR 9 Tutor: Markus Hildebrand MarkHild@stud.uni-frankfurt.de Gemeinsames Übungsblatt, unterteilt in 2 Teile Ausgabe: Dienstags, Abgabe: Dienstags per email Besprechung: Donnerstags Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Vorschau Themen Einführung und Grundlagen Lernen und Klassifizieren Merkmale und lineare Transformationen Lokale Wechselwirkungen: Konkurrentes Lernen Netze mit RBF-Elementen Fuzzy-Systeme Evolutionäre und genetische Algorithmen Schwarmalgorithmen Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Grundlagen Modellierung Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Das Vorbild: Gehirnfunktionen Lineares Modell Zell-Potential ~ Eingabe-Spikefrequenz Ausgabe-Spikefrequenz ~ Zellstrom  Ausgabe-Freq. y ~ Eingabe-Freq. x Problem: Reizähnlichkeit Ähnlich zu a) ? Ähnlich zu a) ? Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Das Vorbild: Gehirnfunktionen Kodierungsbeispiel: Neuron Nr.12, Grashüpfer Creutzig et al, J.Neurosci., 29(8), 2575-2580, 2009 Zirp-Identifikation von Männchen einer Spezies Keine Konstanz von Pausen- und Silbenlänge, Verhältnis Silben / Pausen ist entscheidend Temperatur 1 Temperatur 2 Lösung: Längere Intervalle produzieren mehr spikes, Verhältnis bleibt invariant Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Modellierung Grundlagen Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Modellierung formaler Neuronen Dendriten Axon Zell körper Synapsen x 1 2 3 w y z Akti-vierung Ausgabe (Axon) Gewichte (Synapsen) Eingabe (Dendriten) x = (x1, ... ,xn) w = (w1, ... ,wn) Ausgabefunktionen y = S(z) z = = wTx squashing function radial basis function So wie die Biologie die Wissenschaft vom Leben ist, so ist die Informatik die Wissenschaft von der Informationsverarbeitung. Wie wird Information im Gehirn verarbeitet? Um diese Frage zu lösen, baut man am besten selbst ein eigenes Gehirn. Die Neuroinformatik versucht mit Hilfe abstrahierter, auf wenige typische Merkmale beschränkte Neuronen “intelligente” Systeme zu konstruieren. Dabei werden vom biologischen Neuron alle Eingänge (ca. 200-300 Dendriten) von einem Neuronenausgang (Axon) durch nur eine Eingabe, die Stärke aller Verbindungen (Synapsen) zu einem Neuron durch ein Gewicht modelliert. <click> Formal lassen sich alle Eingabe zu einem Tupel (Vektor) zusammenfassen, ebenso wie die Gewichte. Die Aktivität ist dann die gewichtete Summe aller Eingänge. Eine nichtlineare Ausgabefunktion analog zum biologischem Vorbild verleiht dem Modell interessante Eigenschaften. So lassen sich mehrere gleichartige Neuronen zu Funktionsgruppen zusammenfassen, den Schichten. Es läßt sich zeigen, daß zwei Schichten ausreichen, um jede beliebige Funktion beliebig dicht anzunähern, also sie zu simulieren. Dies macht es möglich, durch Anpassen der Gewichte unbekannte Funktionen und Abhängigkeiten zu lernen (black box), beispielsweise die Diagnose medizinischer Daten eines Patienten oder die Vorhersage der 3D-Struktur eines Proteins aus den Gensequenzen. Das „Lernen“ wird dabei algorithmisch angegeben als Verbesserung der Gewichte (Parameter) nach der Eingabe von Beispielen. Die mathematische Beschreibung des Lernens ist so eng mit der mathematischen Approximationstheorie verbunden. Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Modellierung eines Neurons Input-Output Formalisierung X={x}, Y = {y}, W = {w} DEF Transferfunktion F: X  W  Y F : X DEF Lernfunktion DEF formales Neuron Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Modellierung von Netzen DEF Neuronales Netz Ein neuronales Netz ist ein gerichteter Graph G := (K,E) aus einer Menge von Knoten K = {v}, den neuronalen Einheiten, und einer Menge von Kanten E  KxK, den Verbindungen zwischen den Einheiten. Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Ausgabefunktionen Binäre Ausgabefunktionen z.B. Kodierung von qual.Merkmalen rot = 1, braun = 0 y = SB(z) := y = SB(z) := Heavyside-Funktion Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Formale Neuronen Veränderung: w3 = -⅓ → -⅔ : log. Gatter = ? Anwendung binäre Funktion: log. Gatter x x 1 2 x1 x2 z=x1/2 + x2/2 X1 OR x2 z=0 1 z=½>1/3 SB=1 z= 1>1/3 SB=1 x 3 w 2 w 1 w 3 z y w1 = ½ w2 = ½ w3 = -⅓ z = w1x1+w2x2+w3x3 Veränderung: w3 = -⅓ → -⅔ : log. Gatter = ? Schwellwertveränderung: Wechsel der Funktionalität! Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Ausgabefunktionen Begrenzt-lineare Ausgabefunktionen y = SL(z,s) := k=zmax/2s y = SL(z,s) := k=zmax/s Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Ausgabefunktionen Sigmoidale Ausgabefunktionen Kosinus-Quetschfunktion Fermi-Funktion, logistische Funktion Kosinus-Quetschfunktion SF(z) := K=const SC(z) := sowie hyperb. Tangens ST(z) := 2SF(z)-1 = = tanh(kz) Rüdiger Brause: Adaptive Systeme, Institut für Informatik

A A0 Formale Neuronen Zeitmodellierung Ann.: Abfluss der Ladung aus dem Zellkörper -z/t mit sinkender Spannung proportional geringer -z/t ~ –z(t) oder -z/t = –z(t) * Rechnung * t t+1 t´ Visualisierung z(t) A0 A Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Schichten DEF Schicht Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Lineare Transformation mit NN lineare Schicht y = = W·x Matrix-Multiplikation Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Affine Transformationen Erweiterung des Eingaberaums (homogene Koordinaten) w1x1 +w2x2 + … + wnxn  w1x1 +w2x2 + … + wnxn + wn+11 wTx =(w1,…,wn)(x1…,xn)T  (w1,…,wn,wn+1)(x1…,xn,1)T=wTx (Skalierung, Rotation)  (Skalierung, Rotation, Verschiebung) Verschiebung eines Vektors = Rüdiger Brause: Adaptive Systeme, Institut für Informatik

Affine Transformation mit NN 2-dimensional Drehung Skalierung Shift Wrot = Wscal = Wshift = W = Wshift  Wrot  Wscal = Affine Transformation Rüdiger Brause: Adaptive Systeme, Institut für Informatik