Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002
von der Nervenzelle bis zum "in silico" Neuron Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 x 1, x 2, x 3,...,x n, y {0,1} w 1, w 2, w 3,...,w n, R Axon Dendriten Zellkörper x1x1 x2x2 xnxn y InputOutput w1w1 w2w2 wnwn i=1 n w i x i y 1, wenn y 0, sonst Erregung : Neuron kann auch über f(x 1,x 2,...) Erregung berechnen
Interaktion zwischen Neuronen Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Vorwärtsgerichtete Netze x1x1 x2x2 xnxn y1y1 y2y2 y3y3 ynyn Rekursive Netze t (Zeit) W 1 (n k)W 2 (k l) n k l
Assoziativspeicher Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Recollection unvollständig verrauscht wenige Repräsentanten werden gespeichert hier gibt es 256 (256 256) Möglichkeiten konvergieren
Hopfieldnetz Seminar : Maschinelles Lernen und Markov KettenSommersemester bidirektional - Rekursives Netz -1/1 - bipolar Wunsch: Input-Konfiguration stabile Netzkonfiguration - symmetrisch (w ij w ji ) - w ii 0
Hopfieldnetz Arbeitsprinzip Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 2 3 mögl. Zustände (-1, -1, -1) (-1, -1, 1) (-1, 1, -1) ( 1, 1, 1)... N1N1 N2N2 N3N3 1 1 Konfiguration N1, N2, N3 (-1, 1, 1) 0,5 Erregung (N 1 ) (1 1) 2 1 ( 1, 1, 1)
Hopfieldnetz Energiefunktion Seminar : Maschinelles Lernen und Markov KettenSommersemester 16 Bildmatrix 256 dim. Vektor dim. Raum i=1 n w ij x i x j + E = ½ Energiefunktion j=1 n i=1 n i xii xi Analogie zu lokaler Suche
Hopfieldnetz Energiefunktion : Beweis der Konvergenz Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Wir betrachten den Fall, dass x k x´ k E´ – E = (x´ k – x k ) ( – ) w kj x j + jkjk kk < 0 Fall 1 : 1 – 0 <0 Fall 2 : 0 – 1 >0 Veränderung Energie fällt konvergiert gegen lokales Minimum stabile Konfiguration jkjk E´ =... w kj x´ k x j + k x´ k – ikik w ij x i x j + E = ½ jkjkikik i xii xi w kj x k x j + jkjk k xkk xk –
Hopfieldnetz Arbeitsprinzip Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 1 1 N1N1 N2N2 N3N3 Konfiguration N1, N2, N3 (-1, 1, 1) 0,5 ( 1, 1, 1) E(t) ½[(1 (-1 1))+(-1 (1 1))+(1 (-1 1))] ( 2) + (-0,5+0,5+0,5) 3,5 t t+1 E(t+1) ½[(1 (1 1))+(-1 (1 1))+(1 (1 1))] ( 2) + (0,5+0,5+0,5) 0,5 1
Hopfieldnetz Veranschaulichung Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 0,5 Energieniveau Attraktoren (stabile Konfigurationen)
Hopfieldnetz Lernen Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 gegeben: Vektoren x 1, x 2,..., x m Aufgabe: Finde Gewichte, für die diese Vektoren Attraktoren sind ? N1N1 N2N2 N3N3 ? ? das ist ein seperater Vortrag...
Hopfieldnetz Veranschaulichung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Energieniveau 2 n Konfigurationen möglich, da bipolar also im Zahlenbeispiel ! 123 aber nur 10 Attraktoren speichern... (Aufwand : 10 2 8 = 2560 bit)
Boltzmann - Maschine Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Energieniveau Start Hopfield-Netz und simulated annealing kombiniert
Boltzmann - Maschine Umschaltregel Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Neuron schaltet auf x i =1 mit Wahrscheinlichkeit E = w ij x j - i j=1 n P = 1 1+e -( E/T) und auf x i =0 mit Wahrscheinlichkeit 1-P Eine Boltzmann-Maschine mit T=0 ist gerade ein Hopfieldnetz. Boltzmann-Maschine 0 simulated annealing 0 nur x j für j N(i) werden benötigt Update von x i ist lokal entscheidbar!
Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig
Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig
Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig Zufälliges Neuron - „Updaten“
Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängigZufälliges Neuron - „Updaten“
Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängigZufälliges Neuron - „Updaten“ Konvergenz nicht beweisbar, aber experimentell bestes Verfahren.
Simulation Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Lösung des 8-Dame Problems anhand einer Boltzmann-Maschine.
Zusammenfassung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 i=1 n w ij x i x j + E = ½ Energiefunktion : j=1 n i=1 n i xii xi 1.lokale Suche = Hopfield Netz 2.simulated annealing = Boltzmann-Maschine S = {0,1} n Konfigurationen für n Neuronen N(u) = {u´ : u, u´ an einer Stelle unterschiedlich } x1x1 x2x2 xnxn y w1w1 w2w2 wnwn Neuron :
Literatur Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Rojas: Theorie der Neuronalen Netze. Springer, 1996 Rojas: „Was können neuronale Netze?“ Artikel, 1994 Patterson: Künstliche Neuronale Netze. Pearson Education, 1997 Duda, Hart, Stork: Pattern Classification. Wiley Interscience, 2001 Korst, Aarts: Simulated Annealing and Boltzmann Maschines. John Wiley & Sons, 1990 und das Internet sehr zu empfehlen