Kathrin Klamroth Institut für Angewandte Mathematik

Slides:



Advertisements
Ähnliche Präsentationen
Entscheidungsunterstützungssysteme -
Advertisements

Matrixmultiplikation
Christian Scheideler SS 2009
Anzahl der ausgefüllten und eingesandten Fragebögen: 211
PG Air Seminararbeit März 2002 Jürgen Wieners
3. Kapitel: Komplexität und Komplexitätsklassen
2. Kapitel: Komplexität und Komplexitätsklassen
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Wie lösen wir ILPs exakt?
Marco Barz Seminar über Algorithmen SoSe2007
Unscharfe Optimierung
Klaus Volbert 1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität Sommersemester 2004.
Algorithmentheorie 04 –Hashing
1WS 06/07 Organisatorisches 1.Vorlesung am Montag, : 9-11 Uhr in Gebäude 106, Raum Podcasts: Probleme mit der Videoqualität sind behoben.
Dynamische Programmierung (2) Matrixkettenprodukt
Prof. Dr. S. Albers Prof. Dr. Th. Ottmann
Halbzeit: Kurze Wiederholung
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
WS Algorithmentheorie 08 – Dynamische Programmierung (3) Konstruktion optimaler Suchbäume Prof. Dr. Th. Ottmann.
Algorithmen und Datenstrukturen
WS 06/07 Algorithmentheorie 01 - Einleitung Prof. Dr. Th. Ottmann Tobias Lauer.
Algorithmentheorie 7 – Bin Packing
Geometrisches Divide and Conquer
Lösung linearer Gleichungssysteme
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Geoinformation II Vorlesung In welcher Masche liegt der Punkt p?
K. Desch - Statistik und Datenanalyse SS05
Algorithmische Geometrie
Algorithmen und Komplexität
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
Gaußscher Algorithmus
Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Approximationsalgorithmen Facility Location K-Median Cheng, Wei 12. Juli.
Seminar Stringtheorie und Geometrische Methoden der Physik
Diskrete Mathe 9 Vorlesung 9 SS 2001
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Best Fit Matching von Punktewolken
Effiziente Algorithmen
Zeit: 13h-15h Datum: Raum: IFW B42
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Mehrkriterielle Optimierung mit Metaheuristiken
Quantitative Methoden der BWL – Lineare Programmierung
Mehrkriterielle Optimierung mit Metaheuristiken
Praktische Optimierung

Kapitel 18 Dynamische Modelle: Schätzen der Parameter
EK Produktion & Logistik
1 Helmut Schauer Educational Engineering Lab Department for Information Technology University of Zurich Dynamische Programmierung.
© Dr. rer. pol. Jens Siebel, 2011 Beispiel (Lineare Optimierung) Wir lösen das lineare Optimierungsproblem: Zielfunktion: z(x, y)=x-y+1min! Nebenbedingungen:
Das Traveling Salesman Problem (TSP)
Analyse der Laufzeit von Algorithmen
Nichtlineare Optimierung
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Diskrete Mathematik II Foliendesign: Jörg Steinrücken & Tobias Kahn Vorlesung
Anwendung der Ellipsoidmethode in der Kombinatorischen Optimierung
Optimierungs- Algorithmen Petra Mutzel Technische Universität Wien Institut für Computergraphik und Algorithmen Algorithmen und Datenstrukturen 2.
Optimierungs- Algorithmen
Version vom Max-Flow in Orientierten Matroiden Winfried Hochstättler & Robert Nickel Fernuniversität in Hagen Lehrstuhl für Diskrete Mathematik.
WS03/041 Dynamische Programmierung (3) Konstruktion optimaler Suchbäume Prof. Dr. S. Albers Prof. Dr. Th. Ottmann.
Gliederung der Vorlesung
Institut für Informationssysteme Technische Universität Braunschweig Institut für Informationssysteme Technische Universität Braunschweig Verdrängung von.
Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Thomas FoberWeiwei ChengEyke Hüllermeier AG.
 Präsentation transkript:

Adaptive Approximationsverfahren für multikriterielle Optimierungsprobleme Kathrin Klamroth Institut für Angewandte Mathematik Universität Erlangen-Nürnberg B. Schandl & M.M. Wiecek Clemson University, USA J. Tind Universität Kopenhagen

Gliederung Multikriterielle Optimierung Approximationsverfahren Problemformulierung und Notation Ansatz: Nutzenfunktionen Approximationsverfahren Approximation von Innen Approximation von Außen Nichtkonvexe und diskrete Probleme Anwendungsbeispiele Engineering Design Capital Budgeting Portfolio Optimierung

Multikriterielle Optimierung

Capital Budgeting Problem Gegeben: - Projektanträge für die Einführung neuer Technologien - Budget an Haushaltsmitteln Gesucht: - Auswahl an Projekten so dass - das Budget nicht überschritten wird - der Netto Barwert der Investition maximiert wird - der duale Nutzen maximiert wird Projektpartner: ONR

Modellierung als bikriterielles Rucksackproblem max i=1 c1ixi max i=1 c2ixi s.t. i=1 aixi  b xi  {0,1}, i = 1,...,m m m c1i NPV von Projekt i, i=1,...,m c2i JA/DU von Projekt i, i=1,...,m ai Gesamtkosten von Projekt i, i=1,...,m b Budget

Multikriterielle Optimierung vmin f(x) = [f1(x),...,fn(x)]T s.t. x  X X  m Lösungsraum f = [f1,...,fn]T n unvereinbare Zielfunktionen Y = f(X)  n Entscheidungsraum, Zielfunktionsraum

Effiziente (Pareto optimale) Lösungen xe  X heißt effizient, wenn keine Lösung x  X mit f(x)  f(xe) existiert, d.h.  i{1,...,n} fi(x)  fi(xe)  i{1,...,n} s.t. fi(x) < fi(xe) Effiziente Lösungen: E  X Nichtdominierte Menge: N = f(E)  Y

Eigentlich nichtdominierte Punkte [Geoffrion 68] y*  Ye heißt eigentlich nichtdominiert, wenn eine Konstante M > 0 existiert, so dass für alle i = 1,...,n und y  Y mit yi < yi* ein Index j  i existiert, für den yj > yj* und f2(x) yi - yi* yj* - yj ______  M . y* nicht eigentlich nichtdominiert f1(x)

Lösungsansatz: Nutzenfunktionen Jedem Lösungsvektor f(x) wird ein Nutzen u(f(x)) zugeordnet, indem z.B. die gewichtete Summe der einzelnen Kriterien gebildet wird: min  wi fi(x) s.t. x X  wi = 1, wi  0, i=1,...,n f2(x) n i=1 y* n i=1 f1(x)

Schwierigkeiten: Bestimmung der Gewichte wi bzw. geeigneter Nutzenfunktionen u(f(x)) Es werden i.A. nur extremale nichtdominierte Lösungen gefunden Trade-off Informationen gehen verloren f2(x) nicht extremale Lösung x x x f1(x)

Extremale / nicht extremale Lösungen beim bikriteriellen Rucksackproblem [Visée, Teghem, Pirlot und Ulungu 98]

Approximationsverfahren

Approximationsproblem Gegeben: - Menge nichtdominierter Lösungen N - Gauge  (oder andere Abstandsfunktion) Gesucht: Approximierendes (eingeschriebenes) Polyeder Pk mit k nichtdominierten Extrempunkten so dass (N, (Pk)) minimiert wird. y0 y0 N N

Ausgewählte Beiträge Konvexe bikriterielle Probleme: Cohon 78, Polišč Fruhwirth et al. 89, Yang & Goh 97 Nichtkonvexe bikriterielle Probleme: Payne 93; Li et al. 98, Li 99 Chen et al. 99, Zhang et al. 99 Klamroth et.al. 00, 01a Multikriterielle Probleme: Polak 76, Helbig 91, Jahn & Merkel 92 Kaliszewski 94, Kostreva et al. 95 Sobol´ & Levitan 97, Benson & Sayin 97, Das & Dennis 00 Fonseca und Fleming 95, Czyzak und Jaszkiewicz 98, Ulungu et al. 99 Fliege 01, 02 Klamroth et.al. 01b, 02a, 02b, Klamroth et.al. 03 uk 79

Approximation von Innen Idee: Die Approximation selbst definiert eine polyedrische Abstandsfunktion , mit Hilfe derer die nächste nichtdominierte Lösung bestimmt werden kann y0 = 0 Referenzpunkt (z.B. Nadir Punkt) d1,...,ds Normalen der Facetten von B n Annahme: B n = { y 0 : diy 1, i=1,...,s }  Y       d1y1 max (y) s.t. y  Y  n d2y1   y*

Disjunctive Programming Formulierung [Balas 85] max  s.t. i=1 ( di yi  , yiY )    s Spezialfall: Y = { Cx : Ax b, x 0, x m }: max i=1 i s.t. i - di Cxi  0  i=1,...,s A xi pi b  i=1,...,s i=1 pi = 1 pi  0, xi 0  i=1,...,s i    i=1,...,s s max   - di Cx  0 s.t.  A x b x 0     i=1 ( )   

Dekomposition bzgl. Fundamentalkegeln Idee: Zerlegung des Problems in einfache Teilprobleme, formuliert auf den Fundamentalkegeln von B C1,...,Cs Fundamentalkegel von B n v1,...,vt Fundamentalvektoren von B n Ij Indexmenge der Fundamentalvektoren, die Cj erzeugen, j{1,…,s}     max  i s.t.  i vi = y i  0  iIj y  Y iIj vi y* vi+1

Konvexe Probleme Satz: Sei Y strikt n - konvex und sei Cj ein Fundamentalkegel der Einheitskugel des approximierenden Gauges . Dann ist die Optimallösung von eigentlich nichtdominiert.   max  i s.t.  i vi = y i  0  iIj y  Y iIj

Innerer Approximationsalgorithmus y0=0 y1 y3 y2 y4

Eigenschaften des Verfahrens Komplexität: O([ k log(k) + k(n+1)2 ] + kT) ; Beneath-Beyond Algorithmus: O(k log(k) + k(n+1)2) Die Approximation wird immer dort verbessert, wo der Fehler am größten ist Das Verfahren ist skaleninvariant Die Approximation liefert einen problem-bezogenen Bewertungsmaßstab Der Approximationsfehler ist in jeder Iteration bekannt

Skaleninvarianz y0 y0 y* y* Skalierung 1 Skalierung 2

Problembezogener Bewertungsmaßstab y0 y1 y2

Quadratische Konvergenz für bikriterielle Probleme Satz: Nach k Iterationen beträgt der Approximationsfehler höchstens r: Radius einer in B eingeschriebenen Kugel D: Umfang von Y  D 2 r k2 ______ |(y*) - 1|  = O(1/ k2)

Approximation von Außen Idee: Benutze geometrische Dualität bzgl. der Einheitskugel y0 = 0 Referenzpunkt v1,...,vt Fundamentalvektoren von B n Annahme: (Yn)  { y 0 : y i=1ivi, i=1i = 1,   0 }       t t   v1 max  s.t.  vi = yi  i{1,…,t}   0 yi  Y y* v3 v2

Dekomposition bzgl. Fundamentalrichtungen Idee: Zerlegung des Problems in einfache Teilprobleme, formuliert bzgl. der Fundamentalvektoren von B vj  {v1,...,vt }: Fundamentalvektor von B n   max  s.t.  vj = y   0, yY y* vj

Äußerer Approximationsalgorithmus y0=0 y1 y3 y2 y4

Nichtkonvexe und diskrete Probleme Gegeben: Y  n, n - abgeschlossen, int Y   , 0 Y = Y + n Notation: Nc := { y Y :  y´Y s.t. y´  y }            N Y Nc

Approximation von Innen Idee: Benutze Ordnungskegel um eine stückweise lineare Approximation zu erzeugen y0 = 0 Referenzpunkt d1,...,ds  n B := clos ( n \  (di + n ) ) Annahme: { vn : v = i=1 idi,  0 } = n       i=1,…,s s     d1 max (v) di + i(vi -di ) = v s.t.  i  0, v yi yiY d2 v1 ( ) y* s   d3 v2 i=1 v3

Dekomposition bzgl. Tchebycheff-Boxen Idee: Formulierung bzgl. lokaler Tchebycheff-Boxen ermöglicht die Zerlegung des Problems in einfache Teilprobleme (dj,vj): Lokaler Nadir- und Utopia Punkt max  s.t. i=1 s di + [(vi -di )  ((vi)-1)] yi yiY   ( ) Lemma: (v*) = 1 + *

Innerer Approximationsalgorithmus y0=0 y1 y3 y2

Anwendungsbeispiele Approximations- ablauf Capital Budgeting Engineering Design Portfolio Optimierung

y0

Evaluation von Flugzeug-Technologien min f1(x) min - f2(x) s.t. g(x)  150 -1  xi  1, i=1,...,9 Projektpartner: Georgia Institute of Technology

Zielfunktionen f1(x) = 0.7781145 - 0.000243x1 - 0.000129x2 - 0.008703x3 - 0.018481x4 - 0.001338x5 - 0.001332x6 + 0.002002x7 + 0.0407985x8 + 0.0635737x9 + 0.0000195x12 + 0.0000304x1x2 - 0.00008x22 - 0.000016x1x3 + 0.0000031x2x3 + 0.0002275x32 - 0.000025x1x4 + 0.0000011x2x4 + 0.0004497x3x4 + 0.0003035x42 + 0.0000063x1x5 + 0.0000144x2x5 + 0.0000508x3x5 + 0.0000748x4x5 - 0.000075x52 + 0.0000035x1x6 - 0.0000128x2x6 + 0.000037x3x6 + 0.0000583x4x6 + 0.0000056x5x6 - 0.000077x62 - 0.000027x3x7 - 0.00005x4x7 - 0.000003x6x7 + 0.0001197x72 - 0.000017x1x8 + 0.0002761x3x8 - 0.000621x4x8 - 0.000014x7x8 + 0.0016644x82 - 0.000012x1x9 - 0.00139x3x9 - 0.001816x4x9 - 0.00018x5x9 - 0.000179x6x9 - 0.000014x7x9 + 0.0002337x8x9 + 0.0025803x92 f2(x) = 718.25546 - 13.28308x1 - 1.69x2 - 18.79769x3 - 23.95615x4 - 2.422308x5 - 2.406154x6 + 0.3348272x12 + 0.121875x1x2 - 0.115173x22 + 0.24375x1x3 - 0.046875x2x3 + 0.5848272x32 + 0.36875x1x4 + 0.015625x2x4 + 0.6875x3x4 + 0.6848272x42 + 0.0625x1x5 + 0.009375x2x5 + 0.05625x3x5 + 0.10625x4x5 - 0.115173x52 + 0.046875x1x6 + 0.0125x2x6 + 0.034375x3x6 + 0.071875x4x6 + 0.003125x5x6 - 0.165173x62

Nebenbedingung g(x) = 151.47993 + 0.4261538x1 + 0.2346154x2 + 1.9292308x3 + 2.4615385x4 + 0.2530769x5 + 0.25x6 - 0.078675x12 - 0.034375x1x2 + 0.0713251x22 + 0.03125x1x3 + 0.0125x2x3 - 0.078675x32 + 0.0125x1x4 - 0.01875x2x4 - 0.009375x3x4 - 0.078675x42 + 0.003125x1x5 - 0.003125x2x5 + 0.00625x3x5 - 0.00625x4x5 + 0.0713251x52 - 0.00625x2x6 + 0.009375x3x6 - 0.003125x4x6 + 0.0713251x62

Approximation (20 Iterationen) y0

Zooming y0

Capital Budgeting Problem Gegeben: - Projektanträge für die Einführung neuer Technologien - Budget an Haushaltsmitteln Gesucht: - Auswahl an Projekten so dass - das Budget nicht überschritten wird - der Netto Barwert der Investition maximiert wird - der duale Nutzen maximiert wird Projektpartner: ONR

Projektdaten

Modellierung als bikriterielles Rucksackproblem 24 max i=1 c1ixi max i=1 c2ixi s.t. i=1 aixi  b xi  {0,1}, i = 1,...,24 24 24 c1i NPV von Projekt i (in Millionen US $), i=1,...,24 c2i JA/DU von Projekt i, i=1,...,24 ai Gesamtkosten von Projekt i (über 3 Jahre, in 100.000 US $), i=1,...,24 b Budget (in 100.000 US $)

Approximation (20 Iterationen) y0

Portfolio Optimierung Gegeben: Aktienfonds in verschiedenen Marktsegmenten Zu investierendes Kapital Gesucht: Portfolio von Aktienfonds, so dass das vorhandene Kapital investiert wird, der zu erwartende Gewinn maximiert wird, das Risiko minimiert wird. Projektpartner: Standard & Poors (Hochheim, Taunus)

Projektdaten

Markowitz Kovarianz Modell max Gewinn = r1 x1+ ··· + r40 x40 min Risiko =  i=1 j=1 xi xj ij s.t. x1+ ··· + x40 = 1 xi  0  i = 1,...,40 _____________ 40 40 Eine lineare und eine nichtlineare Zielfunktion Eine lineare Nebenbedingung

Approximation (20 Iterationen) y0

Zusammenfassung Norm-basierte Approximationsverfahren sind skaleninvariant unabhängig, d.h., es werden keine Gewichte, Nutzenfunktionen usw. benötigt verfeinern die Approximation, wo es am Nötigsten ist Trade-off Information ist für die gesamte Alternativenmenge verfügbar Effizienz: Dominiert durch den Beneath-Beyond Algorithmus Quadratische Konvergenz für bikriterielle Probleme Zooming ermöglicht ein mehrstufiges Vorgehen bei der Bestimmung einer „besten“ Lösung

Geplante Forschungsarbeiten Approximationsverfahren: Übertragung der Approximationsverfahren auf konvexe und nichtkonvexe Mengen in der Ebene und im n Effiziente Implementierung in höheren Dimensionen Generierung aller nichtdominierter Lösungen: Dynamische Programmierung [KlaWie00] Klassische Methoden (e-Constraint, Tchebycheff,...) Weitere Lösungsansätze: Metaheuristiken [EhrKlaSchw] Nutzenfunktionen, Abschätzungen und Dualität [KlaTiZu]

Vielen Dank für Ihre Aufmerksamkeit ! http://www2.am.uni-erlangen.de/~klamroth/