Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode von Sebastian Kerkhoff Thorger Brüning.

Ähnliche Präsentationen


Präsentation zum Thema: "Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode von Sebastian Kerkhoff Thorger Brüning."—  Präsentation transkript:

1 Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode von Sebastian Kerkhoff Thorger Brüning

2 Was ist gegeben? Ein Graph G bestehend aus n Knoten und einer Kantenmenge E Die Kantenlängen bzw. - kosten c ij von Knoten i nach Knoten j. IN UNSEREM FALL : c ij = c ji

3 Traveling-Salesman-Problem Gesucht: wobei - jeder Knoten den Grad 2 hat - keine Subtouren existieren -

4 Traveling-Salesman-Problem Gesucht: wobei - jeder Knoten den Grad 2 hat - keine Subtouren existieren -

5 Definition: 1-Baum Ein Teilgraph B von G wird 1- Baum genannt, falls: a) Knoten 1 mit genau zwei Kanten (1,i) und (1,j) inzident ist b) der Graph B\{1} ist ein Gerüst auf G\{1} => jede Tour ist ein 1-Baum => Ein 1-Baum ist genau dann eine Tour, falls jeder Knoten den Grad 2 hat. 1-Baum Tour

6 Die Lagrangerelaxation Beachtet man nun die Tour-Eigenschaft, dass jeder Knoten (außer 1) Grad 2 haben muss als starke Restriktion, erhält man die Lagrangerelaxation: Definiert man u 1 := 0, so erhält man:

7 Das letztlich zu lösende Problem Das Lagrange-Dualproblem Definiere: => Problem lässt sich wie folgt schreiben: Bei der 1-Baum Relaxation wird nun die Relaxation dual gelöst.Wir suchen:

8 Die Subgradientenmethode h 1 und h 2 sind Subgradienten

9 Der verwendete Subgradient Sei B der -optimale 1-Baum, so ergibt sich der Subgradient: h(u)=(0,1,-1,1,-1) Daher: u i = u i-1 + d * h(u i-1 )

10 Festzuhalten bleibt: Sei ein -optimaler 1-Baum, sowie eine -optimale Tour, so gilt Ist zusätzlich eine -optimale Tour, gilt In diesem Fall ist die gefundene Lösung von w(u) also die gesuchte optimale Tour

11 Der Algorithmus Der Beispiel-Plan

12 Der Algorithmus 1.Schritt u(0) = (0,0,0,0,0,0) w(u(0)) = 13

13 Der Algorithmus 1.Schritt u(0) = (0,0,0,0,0,0) w(u(0)) = 13 h(u(0)) = (0,0,-1,1,1,-1)

14 Der Algorithmus 2.Schritt w(u(1)) = 15 u(1) = (0,0,-1,1,1,-1)

15 Der Algorithmus 2.Schritt w(u(1)) = 15 u(1) = (0,0,-1,1,1,-1) h(u(1)) = (0,0,0,1,-1,0)

16 Der Algorithmus 3.Schritt => Tour !!! u(2) = (0,0,-1,2,0,-1) w(u(2)) = 16

17 Der Algorithmus an schwierigeren Beispielen Berlin: 52 Knoten Problem wird vom Algorithmus gelöst 76 City-Problem: 76 Knoten Algorithmus bietet als untere Schranke: 537 Wert der optimalen Tour: 538

18 Der Algorithmus an schwierigeren Beispielen Biergärten: 127 Knoten untere Schranke des Algorithmus: Wert der besten bekannten Tour: entspr. maximaler Abweichung von 0,7 %


Herunterladen ppt "Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode von Sebastian Kerkhoff Thorger Brüning."

Ähnliche Präsentationen


Google-Anzeigen