Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode

Ähnliche Präsentationen


Präsentation zum Thema: "Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode"—  Präsentation transkript:

1 Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode
von Sebastian Kerkhoff Thorger Brüning

2 Was ist gegeben? Ein Graph G bestehend aus n Knoten und einer Kantenmenge E Die Kantenlängen bzw. - kosten cij von Knoten i nach Knoten j. IN UNSEREM FALL : cij = cji

3 Traveling-Salesman-Problem
Gesucht: wobei - jeder Knoten den Grad 2 hat - keine Subtouren existieren -

4 Traveling-Salesman-Problem
Gesucht: wobei - jeder Knoten den Grad 2 hat - keine Subtouren existieren -

5 Definition: 1-Baum Ein Teilgraph B von G wird 1- Baum genannt, falls:
a) Knoten 1 mit genau zwei Kanten (1,i) und (1,j) inzident ist b) der Graph B\{1} ist ein Gerüst auf G\{1} => jede Tour ist ein 1-Baum => Ein 1-Baum ist genau dann eine Tour, falls jeder Knoten den Grad 2 hat. 1-Baum Tour

6 Die Lagrangerelaxation
Beachtet man nun die Tour-Eigenschaft, dass jeder Knoten (außer 1) Grad 2 haben muss als starke Restriktion, erhält man die Lagrangerelaxation: Definiert man u1:= 0 , so erhält man:

7 Das letztlich zu lösende Problem Das Lagrange-Dualproblem
Definiere: => Problem lässt sich wie folgt schreiben: Bei der 1-Baum Relaxation wird nun die Relaxation dual gelöst.Wir suchen:

8 Die Subgradientenmethode
h1 und h2 sind Subgradienten

9 Der verwendete Subgradient
Sei B der optimale 1-Baum, so ergibt sich der Subgradient: h(u)=(0,1,-1,1,-1) Daher: ui = ui-1 + d * h(ui-1)

10 Festzuhalten bleibt: Sei ein -optimaler 1-Baum, sowie eine -optimale Tour, so gilt Ist zusätzlich eine -optimale Tour, gilt In diesem Fall ist die gefundene Lösung von w(u) also die gesuchte optimale Tour

11 Der Algorithmus Der Beispiel-Plan

12 Der Algorithmus 1.Schritt
w(u(0)) = 13

13 Der Algorithmus 1.Schritt
w(u(0)) = 13 h(u(0)) = (0,0,-1,1,1,-1)

14 Der Algorithmus 2.Schritt
w(u(1)) = 15

15 Der Algorithmus 2.Schritt
w(u(1)) = 15 h(u(1)) = (0,0,0,1,-1,0)

16 Der Algorithmus 3.Schritt
=> Tour !!! w(u(2)) = 16

17 Der Algorithmus an schwierigeren Beispielen
Berlin: Knoten Problem wird vom Algorithmus gelöst 76 City-Problem: Knoten Algorithmus bietet als untere Schranke: 537 Wert der optimalen Tour:

18 Der Algorithmus an schwierigeren Beispielen
Biergärten: Knoten untere Schranke des Algorithmus: Wert der besten bekannten Tour: entspr. maximaler Abweichung von 0,7 %


Herunterladen ppt "Die 1-Baum-Relaxation des TSP mit der Subgradientenmethode"

Ähnliche Präsentationen


Google-Anzeigen