Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.

Ähnliche Präsentationen


Präsentation zum Thema: "Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002."—  Präsentation transkript:

1 Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002

2 von der Nervenzelle bis zum "in silico" Neuron Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 x 1, x 2, x 3,...,x n, y  {0,1} w 1, w 2, w 3,...,w n,   R Axon Dendriten Zellkörper x1x1 x2x2 xnxn y  InputOutput w1w1 w2w2 wnwn  i=1 n w i x i    y  1, wenn y  0, sonst Erregung : Neuron kann auch über f(x 1,x 2,...) Erregung berechnen

3 Interaktion zwischen Neuronen Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Vorwärtsgerichtete Netze x1x1 x2x2 xnxn y1y1 y2y2 y3y3 ynyn Rekursive Netze t (Zeit) W 1 (n  k)W 2 (k  l) n k l

4 Assoziativspeicher Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Recollection unvollständig verrauscht wenige Repräsentanten werden gespeichert hier gibt es 256 (256  256) Möglichkeiten konvergieren

5 Hopfieldnetz Seminar : Maschinelles Lernen und Markov KettenSommersemester bidirektional - Rekursives Netz -1/1 - bipolar Wunsch: Input-Konfiguration  stabile Netzkonfiguration - symmetrisch (w ij  w ji ) - w ii  0

6 Hopfieldnetz Arbeitsprinzip Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 2 3 mögl. Zustände (-1, -1, -1) (-1, -1, 1) (-1, 1, -1) ( 1, 1, 1)... N1N1 N2N2 N3N3 1 1 Konfiguration N1, N2, N3 (-1, 1, 1) 0,5 Erregung (N 1 )  (1   1)  2   1 ( 1, 1, 1)

7 Hopfieldnetz Energiefunktion Seminar : Maschinelles Lernen und Markov KettenSommersemester  16 Bildmatrix 256 dim. Vektor dim. Raum  i=1 n w ij x i x j + E =  ½ Energiefunktion  j=1 n  i=1 n i xii xi Analogie zu lokaler Suche

8 Hopfieldnetz Energiefunktion : Beweis der Konvergenz Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Wir betrachten den Fall, dass x k  x´ k E´ – E = (x´ k – x k ) ( – ) w kj x j +  jkjk kk < 0 Fall 1 : 1 – 0 <0   Fall 2 : 0 – 1 >0 Veränderung  Energie fällt konvergiert gegen lokales Minimum  stabile Konfiguration jkjk E´ =... w kj x´ k x j +   k x´ k –  ikik w ij x i x j + E =  ½  jkjkikik i xii xi w kj x k x j +  jkjk k xkk xk –

9 Hopfieldnetz Arbeitsprinzip Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 1 1 N1N1 N2N2 N3N3 Konfiguration N1, N2, N3 (-1, 1, 1) 0,5 ( 1, 1, 1) E(t)   ½[(1  (-1  1))+(-1  (1  1))+(1  (-1  1))] (  2) + (-0,5+0,5+0,5)  3,5 t t+1 E(t+1)   ½[(1  (1  1))+(-1  (1  1))+(1  (1  1))] (  2) + (0,5+0,5+0,5)  0,5 1

10 Hopfieldnetz Veranschaulichung Seminar : Maschinelles Lernen und Markov KettenSommersemester ,5 0,5 Energieniveau Attraktoren (stabile Konfigurationen)

11 Hopfieldnetz Lernen Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 gegeben: Vektoren x 1, x 2,..., x m Aufgabe: Finde Gewichte, für die diese Vektoren Attraktoren sind ? N1N1 N2N2 N3N3 ? ? das ist ein seperater Vortrag...

12 Hopfieldnetz Veranschaulichung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Energieniveau 2 n Konfigurationen möglich, da bipolar also im Zahlenbeispiel ! 123 aber nur 10 Attraktoren speichern... (Aufwand : 10  2 8 = 2560 bit)

13 Boltzmann - Maschine Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Energieniveau Start Hopfield-Netz und simulated annealing kombiniert

14 Boltzmann - Maschine Umschaltregel Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Neuron schaltet auf x i =1 mit Wahrscheinlichkeit  E = w ij x j -  i  j=1 n P = 1 1+e -(  E/T) und auf x i =0 mit Wahrscheinlichkeit 1-P Eine Boltzmann-Maschine mit T=0 ist gerade ein Hopfieldnetz. Boltzmann-Maschine 0 simulated annealing 0 nur x j für j  N(i) werden benötigt  Update von x i ist lokal entscheidbar!

15 Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig

16 Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig

17 Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängig Zufälliges Neuron - „Updaten“

18 Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängigZufälliges Neuron - „Updaten“

19 Boltzmann - Maschine Optimierung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Problem : Boltzmann-Maschine ist zu langsam. Idee : Parallelisierung Diagonalen sind unabhängigZufälliges Neuron - „Updaten“ Konvergenz nicht beweisbar, aber experimentell bestes Verfahren.

20 Simulation Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Lösung des 8-Dame Problems anhand einer Boltzmann-Maschine.

21 Zusammenfassung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002  i=1 n w ij x i x j + E =  ½ Energiefunktion :  j=1 n  i=1 n i xii xi 1.lokale Suche = Hopfield Netz 2.simulated annealing = Boltzmann-Maschine S = {0,1} n Konfigurationen für n Neuronen N(u) = {u´ : u, u´ an einer Stelle unterschiedlich } x1x1 x2x2 xnxn y  w1w1 w2w2 wnwn Neuron :

22 Literatur Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002  Rojas: Theorie der Neuronalen Netze. Springer, 1996  Rojas: „Was können neuronale Netze?“ Artikel, 1994  Patterson: Künstliche Neuronale Netze. Pearson Education, 1997  Duda, Hart, Stork: Pattern Classification. Wiley Interscience, 2001  Korst, Aarts: Simulated Annealing and Boltzmann Maschines. John Wiley & Sons, 1990 und das Internet sehr zu empfehlen


Herunterladen ppt "Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002."

Ähnliche Präsentationen


Google-Anzeigen