Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.

Slides:



Advertisements
Ähnliche Präsentationen
Selbstorganisation und Lernen
Advertisements

Seminarankündigung für das SS04
Simulationsansätze in der BWL: Erstellung eines eigenen Projekts
Perceptrons and the perceptron learning rule
Schnelle Matrizenoperationen von Christian Büttner
Neuronale Netze Folien, Aufgaben sind unter zu finden.
SST - Sequence Search Tree
Einführung in NeuroFuzzy Technologien
Simulated Annealing Marco Block & Miguel Domingo Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Marvin Minsky und das Perceptron
Neuronale Netze Von Kay-Patrick Wittbold.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik 1 Algorithm. Grundlagen des Internets 24. Juni 2002 Christian Schindelhauer.
Konkurrentes Lernen AS-1
Adaptive lineare Transformationen AS-2
Übersicht DIALIGN = DIagonal ALIGNment
Neuronale Netze Inhalt des Vortrags:
1WS 06/07 Organisatorisches 1.Vorlesung am Montag, : 9-11 Uhr in Gebäude 106, Raum Podcasts: Probleme mit der Videoqualität sind behoben.
Prinzipien des Algorithmenentwurfs Backtracking Prof. Dr. Th. Ottmann
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (04 – Entwurfsverfahren) Prof. Th. Ottmann.
Algorithmen und Datenstrukturen
Algorithmentheorie 7 – Bin Packing
Genetische Algorithmen
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
K. Desch - Statistik und Datenanalyse SS05
PG 520 Intelligence Service – gezielte Informationen aus dem Internet
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Algorithmen und Komplexität
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Klausuraufgaben.
Approximation von Nullstellen: Newtonverfahren
4. Markov-Ketten 4.1. Übergangsmatrizen
Praktikum Künstliche Intelligenz
Praktikum Künstliche Intelligenz
2. Biologische Neuronen Schematischer Aufbau einer Nervenzelle
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Bayes‘sche Verfahren (Mitchell Kap. 6), Teil 1
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Neuronale Netze Teil II.
Why connectionism? Backpropagation Netzwerke
Adaptive Systeme-2 Grundlagen
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Neuronale Netze.
Neuronale Netze Nachtrag Perzeptron
Muskelkontraktion.
Neuronale Netze (1) Isabel Schwende
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Die Information Bottleneck Methode

Künstliches Neuronales Netz nach John Hopfield
6 Genetic Algorithms and Neuronal Networks
Newton Verfahren.
Dr.-Ing. R. Marklein - GET I - WS 06/07 - V Grundlagen der Elektrotechnik I (GET I) Vorlesung am Fr. 08:30-10:00 Uhr; R (Hörsaal)
Dr.-Ing. R. Marklein - GET I - WS 06/07 - V Grundlagen der Elektrotechnik I (GET I) Vorlesung am Fr. 08:30-10:00 Uhr; R (Hörsaal)
Fächerverbund der Hauptschule Musik-Sport-Gestalten MSG
Wichtige Transformationen
Neuronale Netze - Anwendungen in Chemie und Verfahrenstechnik
Global-Illumination: Radiosity
Kopf und Computer Gerhard Vollmer
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Optimierungs- Algorithmen
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
In PBPK Schätzung von Modellparametern. Direktes Problem vs. Inverses Problem Direktes Problem: gegeben Kompartimentenmode ll K, Parameter p Input x gesucht.
Bewege den Mauszeiger über die Zahlen der Abbildung um Erläuterungen zu den Teilen des Neurons zu erhalten.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
Konnektionismus: Pattern Association Simulationsumgebung tlearn Projektseminar Konnektionistische Sprachverarbeitung WS 2009/2010.
XX X XX X : X X X.
Wärmelehre Lösungen.
 Präsentation transkript:

Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002

von der Nervenzelle bis zum "in silico" Neuron Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 x 1, x 2, x 3,...,x n, y  {0,1} w 1, w 2, w 3,...,w n,   R Axon Dendriten Zellkörper x1x1 x2x2 xnxn y  InputOutput w1w1 w2w2 wnwn  i=1 n w i x i    y  1, wenn y  0, sonst Erregung : Neuron kann auch über f(x 1,x 2,...) Erregung berechnen

Interaktion zwischen Neuronen Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Vorwärtsgerichtete Netze x1x1 x2x2 xnxn y1y1 y2y2 y3y3 ynyn Rekursive Netze t (Zeit) W 1 (n  k)W 2 (k  l) n k l

Assoziativspeicher Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Recollection unvollständig verrauscht wenige Repräsentanten werden gespeichert hier gibt es 256 (256  256) Möglichkeiten konvergieren

Hopfieldnetz Seminar : Maschinelles Lernen und Markov KettenSommersemester bidirektional - Rekursives Netz -1/1 - bipolar Wunsch: Input-Konfiguration  stabile Netzkonfiguration - symmetrisch (w ij  w ji ) - w ii  0

Hopfieldnetz Arbeitsprinzip Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 2 3 mögl. Zustände (-1, -1, -1) (-1, -1, 1) (-1, 1, -1) ( 1, 1, 1)... N1N1 N2N2 N3N3 1 1 Konfiguration N1, N2, N3 (-1, 1, 1) 0,5 Erregung (N 1 )  (1   1)  2   1 ( 1, 1, 1)

Hopfieldnetz Energiefunktion Seminar : Maschinelles Lernen und Markov KettenSommersemester  16 Bildmatrix 256 dim. Vektor dim. Raum  i=1 n w ij x i x j + E =  ½ Energiefunktion  j=1 n  i=1 n i xii xi Analogie zu lokaler Suche

Hopfieldnetz Energiefunktion : Beweis der Konvergenz Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Wir betrachten den Fall, dass x k  x´ k E´ – E = (x´ k – x k ) ( – ) w kj x j +  jkjk kk < 0 Fall 1 : 1 – 0 <0   Fall 2 : 0 – 1 >0 Veränderung  Energie fällt konvergiert gegen lokales Minimum  stabile Konfiguration jkjk E´ =... w kj x´ k x j +   k x´ k –  ikik w ij x i x j + E =  ½  jkjkikik i xii xi w kj x k x j +  jkjk k xkk xk –

Hopfieldnetz Arbeitsprinzip Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 1 1 N1N1 N2N2 N3N3 Konfiguration N1, N2, N3 (-1, 1, 1) 0,5 ( 1, 1, 1) E(t)   ½[(1  (-1  1))+(-1  (1  1))+(1  (-1  1))] (  2) + (-0,5+0,5+0,5)  3,5 t t+1 E(t+1)   ½[(1  (1  1))+(-1  (1  1))+(1  (1  1))] (  2) + (0,5+0,5+0,5)  0,5 1

Hopfieldnetz Veranschaulichung Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 0,5 Energieniveau Attraktoren (stabile Konfigurationen)

Hopfieldnetz Lernen Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 gegeben: Vektoren x 1, x 2,..., x m Aufgabe: Finde Gewichte, für die diese Vektoren Attraktoren sind ? N1N1 N2N2 N3N3 ? ? das ist ein seperater Vortrag...

Hopfieldnetz Veranschaulichung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Energieniveau 2 n Konfigurationen möglich, da bipolar also im Zahlenbeispiel ! 123 aber nur 10 Attraktoren speichern... (Aufwand : 10  2 8 = 2560 bit)

Boltzmann - Maschine Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Energieniveau Start Hopfield-Netz und simulated annealing kombiniert

Boltzmann - Maschine Umschaltregel Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Neuron schaltet auf x i =1 mit Wahrscheinlichkeit  E = w ij x j -  i  j=1 n P = 1 1+e -(  E/T) und auf x i =0 mit Wahrscheinlichkeit 1-P Eine Boltzmann-Maschine mit T=0 ist gerade ein Hopfieldnetz. Boltzmann-Maschine 0 simulated annealing 0 nur x j für j  N(i) werden benötigt  Update von x i ist lokal entscheidbar!

Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig

Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig

Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig Zufälliges Neuron - „Updaten“

Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängigZufälliges Neuron - „Updaten“

Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängigZufälliges Neuron - „Updaten“ Konvergenz nicht beweisbar, aber experimentell bestes Verfahren.

Simulation Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Lösung des 8-Dame Problems anhand einer Boltzmann-Maschine.

Zusammenfassung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002  i=1 n w ij x i x j + E =  ½ Energiefunktion :  j=1 n  i=1 n i xii xi 1.lokale Suche = Hopfield Netz 2.simulated annealing = Boltzmann-Maschine S = {0,1} n Konfigurationen für n Neuronen N(u) = {u´ : u, u´ an einer Stelle unterschiedlich } x1x1 x2x2 xnxn y  w1w1 w2w2 wnwn Neuron :

Literatur Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002  Rojas: Theorie der Neuronalen Netze. Springer, 1996  Rojas: „Was können neuronale Netze?“ Artikel, 1994  Patterson: Künstliche Neuronale Netze. Pearson Education, 1997  Duda, Hart, Stork: Pattern Classification. Wiley Interscience, 2001  Korst, Aarts: Simulated Annealing and Boltzmann Maschines. John Wiley & Sons, 1990 und das Internet sehr zu empfehlen