Simulated Annealing Marco Block & Miguel Domingo Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.

Slides:



Advertisements
Ähnliche Präsentationen
Simulationsansätze in der BWL: Erstellung eines eigenen Projekts
Advertisements

Christian Scheideler SS 2009
Grundlagen des A*-Algorithmus und Anwendung in der Routenplanung
Knapsack & Bin Packing Sebastian Stober
Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
3. Kapitel: Komplexität und Komplexitätsklassen
Genetische Algorithmen für die Variogrammanpassung
Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode
Mathematisches Seminar – Thema 2.1
Verifizieren versus Berechnen
Algorithmen und Komplexität
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken X Christian Schindelhauer
Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität Approximationsalgorithmen …liefern in polynomieller.
Klaus Volbert 1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität Sommersemester 2004.
Übersicht DIALIGN = DIagonal ALIGNment
Genetische Algorithmen
Heuristiken Automatic Problem Solving Institut für Informatik
Algorithmentheorie 6 – Greedy-Verfahren
Prof.Dr.S. Albers Prof. Dr. Th. Ottmann
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (10 - Suchverfahren) T. Lauer.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Algorithmentheorie 7 – Bin Packing
Union-Find-Strukturen
PG 520 Intelligence Service – gezielte Informationen aus dem Internet
High Performance = Innovative Computer Systems + Efficient Algorithms Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen.
Algorithmen und Komplexität
Christian Schindelhauer
Approximation von Nullstellen: Newtonverfahren
Seminar Heuristische Verfahren Das Tastatur-Anordnungs-Problem
Approximationsalgorithmen Facility Location K-Median Cheng, Wei 12. Juli.
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Optimierungs- Algorithmen
Abschlussvortrag zur Studienarbeit
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Einführung in die Programmierung Wintersemester 2013/14 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
K-SAT: Ein heuristischer Algorithmen- Vergleich Kann man den Brute Force Search Algorithmus schlagen?
Die Information Bottleneck Methode

STATISIK LV Nr.: 0028 SS Mai 2005.
Wie bewältigt man Stationaritätsannahmen in der Geostatistik? Brenning & van den Boogaart A.Brenning, Humboldt-Universität zu Berlin
6 Genetic Algorithms and Neuronal Networks
teWT313: Markov-Ketten, Erlang
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Arne Vater Wintersemester 2006/ Vorlesung
Das Traveling Salesman Problem (TSP)
Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Diskrete Mathematik II Vorlesung Suche des kürzesten Weges in einem Netz.
Gene Prediction Marco Block Jonas Heise Nima Keshvari Michael Schreiber.
Der A*-Algorithmus.
K-SAT: Ein heuristischer Algorithmen- Vergleich Kann man den ‚Brute Force Search‘ Algorithmus schlagen?
Institut für Informationssysteme Technische Universität Braunschweig Institut für Informationssysteme Technische Universität Braunschweig Verdrängung von.
In PBPK Schätzung von Modellparametern. Direktes Problem vs. Inverses Problem Direktes Problem: gegeben Kompartimentenmode ll K, Parameter p Input x gesucht.
 Präsentation transkript:

Simulated Annealing Marco Block & Miguel Domingo Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002

Kombinatorisches Optimierungproblem Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 gegeben : gesucht : endliche Menge S (Lösungen) Kostenfunktion f : S R globales Minimum (optimale Lösung) s * S * { s S : f(s) f(t) t S } schwierig, wenn |S| sehr groß ist (z.B. |S| n!)

Beispiel : Problem des Handlungsreisenden (TSP) Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 gegeben : n Städte, Reisekosten c(i,j) gesucht : günstigste Rundreise durch alle Städten formal : S = { Permutationen von {1,..,n} } f( ) = i=1..n c( (i), (i+1)) für S optimale Tour zu finden ist NP-hart !

Lokale Suche - Idee Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 einfacher, allgemeiner Approximationsalgorithmus Idee : schrittweise Verbesserung der Kosten durch Erforschung von benachbarten Lösungen Definiere Nachbarschaftstruktur auf S N : S 2 S mit i N(j) j N(i) i Beispiel : TSP ´ N( ) jij (j) (i) ´

Lokale Suche - Pseudocode Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 LOKALE_SUCHE( s 0 ) Setze s s 0 Wiederhole Generiere s´ N(s) zufällig Falls f(s´) < f(s) ersetze s s´ Bis f(s) f(t) für alle t N(s)

Lokale Suche - Pseudocode Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 LOKALE_SUCHE( s 0 ) Setze s s 0 Wiederhole Generiere s´ N(s) zufällig Falls f(s´) < f(s) ersetze s s´ Bis f(s) f(t) für alle t N(s) Problem : Algorithmus bleibt in lokalem Minima stecken mit verschiedenen Startwerten s 0 versuchen...

Simulated Annealing - Idee Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Modifikation des Algorithmus LOKALE_SUCHE : Transitionen s s´ mit f = f(s´)-f(s) > 0 mit Wahrscheinlichkeit exp(- f / T) annehmen um aus lokale Minima rauskommen zu können Konstante T 0 (abkühlen) um sich in einem globalen Minimum zu stabilisieren Analogie aus der Physik : Simulierte Abkühlung

Simulated Annealing - Pseudocode Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 INITIALISIERE u 0 u:=u 0 WIEDERHOLE GENERIERE u´ N(u) BERECHNE f:=f(u´)-f(u) FALLS f<0 DANN u:=u´ SONST FALLS exp(- f/T k )>RANDOM[0,1) DANN u:=u´ BIS f(u) f(u´) für alle u´ N(u)

Simulated Annealing - Pseudocode Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 INITIALISIERE u 0, T 0 u:=u 0 WIEDERHOLE GENERIERE u´ N(u) BERECHNE f:=f(u´)-f(u) FALLS f<0 DANN u:=u´ SONST FALLS exp(- f/T k )>RANDOM[0,1) DANN u:=u´ BERECHNE T k // T 0 >T 1 >T 2 >... 0 BIS f(u) f(u´) für alle u´ N(u) k:=0 k:=k+1

Simulated Annealing - Pseudocode Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 INITIALISIERE u 0, T 0 u:=u 0 WIEDERHOLE GENERIERE u´ N(u) BERECHNE f:=f(u´)-f(u) FALLS f<0 DANN u:=u´ SONST FALLS exp(- f/T k )>RANDOM[0,1) DANN u:=u´ BERECHNE T k // T 0 >T 1 >T 2 >... 0 BIS f(u) f(u´) für alle u´ N(u) k:=0 k:=k+1 FÜR l:=1 BIS L, L

Simulated Annealing - Pseudocode Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 INITIALISIERE u 0 u:=u 0 k:=0 WIEDERHOLE FÜR l:=1 BIS L GENERIERE u´ N(u) BERECHNE f:=f(u´)-f(u) FALLS f<0 DANN u:=u´ SONST FALLS exp(- f/T k )>RANDOM[0,1) DANN u:=u´ k:=k+1 BIS ABBRUCHBEDINGUNG BERECHNE T k // T 0 >T 1 >T 2 >... 0 k:=0 k:=k+1, T 0, L

Simulation Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002

Gibbsche Verteilung Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 bei Temperatur T > 0 : für alle s S gilt bei T 0

Metropolis-Algorithmus Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 realisiert Markov-Kette zu gegebener stationärer Verteilung Metropolis-MK[ T ; s] generiere s´ N(s) zufällig akzeptiere s´ mit Wahrscheinlichkeit : Speziallfall : = Gibbsche Verteilung T für T 0 geht 2 (T) 1 Die Markov-Kette konvergiert immer langsamer !

Simulated Annealing - Pseudocode Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 INITIALISIERE u 0 u:=u 0 WIEDERHOLE FÜR l:=1 BIS L GENERIERE u´ N(u) BERECHNE f:=f(u´)-f(u) FALLS f<0 DANN u:=u´ SONST FALLS exp(- f/T k )>RANDOM[0,1) DANN u:=u´ BERECHNE T k // T 0 >T 1 >T 2 >... 0 BIS ABBRUCHBEDINGUNG k:=0 k:=k+1, T 0, L

Markov-Ketten Struktur Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 SIMULATED_ANNEALING(s 0, T 0, L) X(0) s 0 für k = 0,1,... berechne T k für kL t < (k+1)L X(t+1) = Metropolis-MK[ T k ; X(t)] Abbruchbedingung prüfen (X(t)) t=0,1,... ist inhomogene Markov-Kette

Langsames Abkühlen Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 T0T0 T0T0 T1T1 T2T2 TkTk T 0 T 1 T 2 T k 0 * L L L L

Schnelles Abkühlen Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 T0T0 T0T0 T1T1 T2T2 TkTk T 0 T 1 T 2 T k 0 * L L L

Theoretische Ergebnisse Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 asymptotische Konvergenz ist garantiert : lim T 0 lim t P(X T (t) S * ) = 1 Konvergenz in Verteilung der inhomogenen MK : T k C / log(k) führt zu exponentiellen Laufzeit falls lim t P(X(t) S * ) = 1 für alle X(0) = s 0 S

Parameter des Algorithmus Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Kühlprogramm : Anfangstemperatur T 0 Abkühlungsmechanismus T k T k+1 Endtemperatur T * durch Abbruchbedingung Länge L der Markov-Ketten bei festem T Konvergenz und Laufzeit des Algorithmus hängen davon ab !

Ein einfaches Kühlprogramm Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Wähle T 0, sodass die Akzeptanzrate T 0 Wähle L = (Durchmesser von S) T k+1 = ·T k für eine festes 0.8 < < 1 Abbruch bei T * wenn T* 0 Keine theoretische Laufzeit- oder Konvergenzgarantie ! # akzeptierte Transitionen # vorgeschlagene Transitionen 1

Simulation Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002

Fazit : Simulated Annealing Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002 Vorteile : allgemein anwendbares Verfahren asymptotische Konvergenz gesichert liefert hochwertige Approximationen (experimentell) Nachteil : sehr rechenaufwendig stochastischer Approximationsalgorithmus basiert auf schrittweisen lokalen Änderungen Parallelisierung Boltzmann-Maschine