Mehrkriterielle Optimierung mit Metaheuristiken

Slides:



Advertisements
Ähnliche Präsentationen
Lehrgebietsvorstellung
Advertisements

Christian Scheideler SS 2009
Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Algorithmen und Komplexität Teil 1: Grundlegende Algorithmen
1WS 06/07 Organisatorisches 1.Vorlesung am Montag, : 9-11 Uhr in Gebäude 106, Raum Podcasts: Probleme mit der Videoqualität sind behoben.
Prof. Dr. S. Albers Prof. Dr. Th. Ottmann
Prinzipien des Algorithmenentwurfs Backtracking Prof. Dr. Th. Ottmann
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (03 – Verschiedene Algorithmen für dasselbe Problem) Prof. Dr. Th. Ottmann.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (03 – Verschiedene Algorithmen für dasselbe Problem) Prof. Dr. Th. Ottmann.
Vorlesung Informatik 3 Einführung in die Theoretische Informatik (06 – Reduktion endlicher Automaten) Prof. Dr. Th. Ottmann.
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
WS Algorithmentheorie 08 – Dynamische Programmierung (3) Konstruktion optimaler Suchbäume Prof. Dr. Th. Ottmann.
Informatik II, SS 2008 Algorithmen und Datenstrukturen Vorlesung 4 Prof. Dr. Thomas Ottmann Algorithmen & Datenstrukturen, Institut für Informatik Fakultät.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (11-1 –Selbstanordnende lineare Listen) Prof. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27-Selbstanordnende lineare Listen) Prof. Th. Ottmann.
Algorithmentheorie 7 – Bin Packing
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (03 – Verschiedene Algorithmen für dasselbe Problem) Prof. Dr. Th. Ottmann.
Informatik II, SS 2008 Algorithmen und Datenstrukturen Vorlesung 16 Prof. Dr. Thomas Ottmann Algorithmen & Datenstrukturen, Institut für Informatik Fakultät.
Praktische Optimierung Sommersemester 2010 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Einführung in die Programmierung Wintersemester 2012/13 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Einführung in die Programmierung
Effiziente Algorithmen
Einführung in die Programmierung Wintersemester 2011/12 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Effiziente Algorithmen
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Mehrkriterielle Optimierung mit Metaheuristiken
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Fundamente der Computational Intelligence
Einführung in die Programmierung Wintersemester 2008/09 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Praktische Optimierung
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Programmierung Wintersemester 2009/10 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fakultät.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Mehrkriterielle Optimierung mit Metaheuristiken
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Ausgewählte Kapitel der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Sommersemester.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Mehrkriterielle Optimierung mit Metaheuristiken
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Praktische Optimierung
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Programmierung Wintersemester 2013/14 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Praktische Optimierung – Präludium
Einführung in die Programmierung
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Nichtlineare Optimierung
WS03/041 Dynamische Programmierung (3) Konstruktion optimaler Suchbäume Prof. Dr. S. Albers Prof. Dr. Th. Ottmann.
Gliederung der Vorlesung
Geoinformationssysteme
Programmiersprachen II Vorbesprechung Klausur Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
Programmiersprachen II Fortsetzung Datenstrukturen Balancierte Bäume 3 Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
Praktische Optimierung
 Präsentation transkript:

Mehrkriterielle Optimierung mit Metaheuristiken Sommersemester 2006 Mehrkriterielle Optimierung mit Metaheuristiken (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering (LS XI) Fachgebiet Computational Intelligence

Kapitel 4: Skalarisierungsmethoden 1. Ansatz: Gewichtete Summe wobei Idee: Vektorielles Problem umwandeln in skalares Problem Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden Skalares Ersatzproblem (m = 2) Umformen ergibt Geradengleichung: wird minimiert bei Optimierung des skalaren Problems F z → finde Gerade mit minimalem z, so dass F gerade noch berührt wird → Tangentialpunkte mit F zmin w1 w2 Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden Definition 4.1: Sei Menge aller Vektoren, die für gegebene Gewichte wi die gewichtete Summe minimieren, wobei w 2 int(Cm). ■ Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden Satz 4.1: S(F) µ F*. ■ d.h. jeder durch Summenbildung mit positiven Gewichten gefundene Zielvektor ist effizient! Beweis von Satz 4.1: Wenn z* 2 S(F), dann existiert w 2 int(Cm), so dass 8 z 2 F: Annahme: z*  F* . Dann existiert z 2 F, das z* dominiert: z Á z* bzw.  im Widerspruch zu (*). ■ bzw. (mal wi > 0) (*) Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden 2. Ansatz: Referenzpunktmethode wobei z0 Referenzpunkt. → Wie wählt man Referenzpunkt? Definition 4.2: Der Zielvektor heisst idealer Punkt. ■ Anmerkung: Idealer Punkt bei konfliktären Zielen nicht erreichbar. Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden min-max-Methode Tschebyscheff-Methode Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

F Kapitel 4: Skalarisierungsmethoden f2 z0 f1 Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden Erweiterungen: weighted metric method → Abweichungsterme je Ziel gewichten rotated weighted method → zusätzlich rotieren rotiert achsenparallel Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden Satz 4.2: Sei z0 der ideale Punkt eine mehrkriteriellen Problems und 1 ≤ r < 1. Jede optimale Lösung des skalaren Ersatzproblems ist Pareto-optimal. Beweis: (durch Widerspruch) Ann.: Sei x* optimale Lösung des Ersatzproblems, aber x* nicht Pareto-optimal. ) 9 x 2 X: 8 i: fi(x) ≤ fi(x*) und 9 k: fk(x) < fk(x*). ) 8 i: 0 ≤ fi(x) – zi0 ≤ fi(x*) – zi0 und 9 k: 0 ≤ fk(x) – zi0 ≤ fk(x*) – zi0 ) i ( fi(x) – zi0 )r < i ( fi(x*) – zi0 )r ) x* nicht opt. für Ersatzproblem!  WIDERSPRUCH zur Annahme. ■ Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden 3. Ansatz: Goal Attainment wobei wi zu wählende Gewichte Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden Anmerkungen: bei systematischem Variieren der Gewichte alle Lösungen auf konvexem Zielbereich auffindbar kann nicht alle Lösungen im nicht-konvexen Bereich finden kann Lösungen finden, die nicht Pareto-optimal (→ ausfiltern, wenn möglich) Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden 4. Ansatz: Kompromissmethode ( – constraint method) wobei i erlaubter Höchstwert für Ziel i Prozedur: systematisches Variieren der i liefert Pareto-optimale Lösungen (auch für nicht kegelkonvexes F) Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

F Kapitel 4: Skalarisierungsmethoden f2 z* f1 1 min! Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

F Kapitel 4: Skalarisierungsmethoden f2 z* f1 2 min! Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Lösung von (m) = multikriterielle Lösung Kapitel 4: Skalarisierungsmethoden 5. Ansatz: Lexikografische Methode Idee: m monokriterielle Probleme, zunehmend angereichert mit Nebenbedingungen … Lösung von (m) = multikriterielle Lösung Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden Probleme: Reihenfolge der Ziele muss vorgegeben werden Häufig keine natürliche Priorisierung vorhanden  willkürliche Reihenfolge Verschiedene Reihenfolgen  Verschiedene Lösungen! Fazit: Ohne natürliche Zielpriorisierung erhält man beliebige Lösung! Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden

Kapitel 4: Skalarisierungsmethoden Zusammenfassung bzgl. Skalarisierungsmethoden 9 Lösungen, die diesen Methoden verborgen bleiben bei einmaliger Anwendung nur eine Lösung zudem: a-priori-Auswahl von Gewichten, Schranken, etc. fragwürdig bei mehrmaliger Anwendung mehrere Lösungen falls Gewichte, Schranken, etc. systematisch variiert und dominierte Lösungen ausgefiltert werden stillschweigende Annahme: monokriterielle Optimierung „einfach“ aber: auch monokriterielle Optimierung ist schwierig! → multimodale Probleme, lokale Lösungen → welche Verfahren? Rudolph: MOMH (SS 2006) ● Kap. 4: Skalarisierungsmethoden