Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung Einführung Konvexe Optimierungsprobleme Spezielle Verfahren (Penalty, etc.) Evolutionsstrategien Einführung.

Ähnliche Präsentationen


Präsentation zum Thema: "Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung Einführung Konvexe Optimierungsprobleme Spezielle Verfahren (Penalty, etc.) Evolutionsstrategien Einführung."—  Präsentation transkript:

1 Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung Einführung Konvexe Optimierungsprobleme Spezielle Verfahren (Penalty, etc.) Evolutionsstrategien Einführung Konvexe Optimierungsprobleme Spezielle Verfahren (Penalty, etc.) Evolutionsstrategien

2 Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung - Einführung x  n f :  n  nichtlinear) g i :  n  i = 1,..., m max f (x) g i (x)  b i i = 1,..., m x  x  n f :  n  nichtlinear) g i :  n  i = 1,..., m max f (x) g i (x)  b i i = 1,..., m x 

3 Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung - Beispiel (1) p: Preis-Absatz-Funktion C: Stückkosten-Funktion unter Berücksichtigung der Lernrate Deckungsbeitrag = x  p(x) - c(x)  x x  p(x) = 1/(x  x) c(x) = 0.64 x max f(x) = 1/x - x * 0.64 x x  p: Preis-Absatz-Funktion C: Stückkosten-Funktion unter Berücksichtigung der Lernrate Deckungsbeitrag = x  p(x) - c(x)  x x  p(x) = 1/(x  x) c(x) = 0.64 x max f(x) = 1/x - x * 0.64 x x 

4 Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung - Beispiel (2) Beispiel Wertpapierportfolio n Wertpapiere mit erwartetem Gewinn  i bei einer Standardabweichung von  i (i = 1,..., n) x i Investitionshöhe in Wertpapier i max   i x i -    ij x i x j x i  0 (i = 1,..., n) wobei  ij die Kovarianz von Wertpapier i bzgl. j darstellt und   0 die Risikopräferenz des Entscheidungsträgers widerspiegelt Beispiel Wertpapierportfolio n Wertpapiere mit erwartetem Gewinn  i bei einer Standardabweichung von  i (i = 1,..., n) x i Investitionshöhe in Wertpapier i max   i x i -    ij x i x j x i  0 (i = 1,..., n) wobei  ij die Kovarianz von Wertpapier i bzgl. j darstellt und   0 die Risikopräferenz des Entscheidungsträgers widerspiegelt

5 Prof. Dr. Dr. J. Hansohm Literatur: l Neumann/Morlock: Operations Research München 1993, Hanser-Verlag, Kapitel 4 Seite l Domschke/Drexl: Einführung in Operations Research 3. erw. verb. Auflage, Springer- Verlag 1995, Kapitel 8 Abschnitt 8.1. Seiten l Neumann/Morlock: Operations Research München 1993, Hanser-Verlag, Kapitel 4 Seite l Domschke/Drexl: Einführung in Operations Research 3. erw. verb. Auflage, Springer- Verlag 1995, Kapitel 8 Abschnitt 8.1. Seiten

6 Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung - Definitionen x  n heißt zulässig  g i (x)  b i (i = 1,..., m) und x  0 x  n heißt (global) optimal  x zulässig und für alle y  n, y zulässig gilt: f(x)  f(y) U  (x) ={y  n | || x-y || < , zulässig} heißt zulässige  Umgebung von x x  n heißt lokal optimal  x zulässig und für alle y  U  (x) gilt: f(x)  f(y) für wenigstens ein  > 0 x  n heißt zulässig  g i (x)  b i (i = 1,..., m) und x  0 x  n heißt (global) optimal  x zulässig und für alle y  n, y zulässig gilt: f(x)  f(y) U  (x) ={y  n | || x-y || < , zulässig} heißt zulässige  Umgebung von x x  n heißt lokal optimal  x zulässig und für alle y  U  (x) gilt: f(x)  f(y) für wenigstens ein  > 0

7 Prof. Dr. Dr. J. Hansohm Lineare - Nichtlineare Optimierung Lineare Optimierung: lokales Optimum ist globales Optimum l Wenn eine optimale Lösung existiert, so ist eine optimale Lösung unter den endlich vielen Ecken des Restriktionspolyeders zu finden. Nichtlineare Zielfunktion, lineare Nebenbe- dingungen: l Lokales Optimum nicht notwendigerweise globales Optimum l Optimum kann im Inneren des Restriktions- polyeders liegen Lineare Optimierung: lokales Optimum ist globales Optimum l Wenn eine optimale Lösung existiert, so ist eine optimale Lösung unter den endlich vielen Ecken des Restriktionspolyeders zu finden. Nichtlineare Zielfunktion, lineare Nebenbe- dingungen: l Lokales Optimum nicht notwendigerweise globales Optimum l Optimum kann im Inneren des Restriktions- polyeders liegen

8 Prof. Dr. Dr. J. Hansohm Literatur: l Neumann/Morlock: Operations Research München 1993, Hanser-Verlag, Kapitel 4 Seite 538 l Domschke/Drexl: Einführung in Operations Research 3. erw. verb. Auflage, Springer- Verlag 1995, Kapitel 8 Abschnitt 8.1. Seiten l Neumann/Morlock: Operations Research München 1993, Hanser-Verlag, Kapitel 4 Seite 538 l Domschke/Drexl: Einführung in Operations Research 3. erw. verb. Auflage, Springer- Verlag 1995, Kapitel 8 Abschnitt 8.1. Seiten

9 Prof. Dr. Dr. J. Hansohm Überblick über Optimierungsverfahren

10 Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung - Einfachster Fall f:  stetig differenzierbar max f(x) x  0 notwendige Bedingung für ein Optimum x > 0: f'(x) = 0 nicht hinreichend: (lokales) Minimum, Maximum oder Sattelpunkt f zweimal stetig differenzierbar: f'(x) = 0, f''(x) < 0 hinreichend für x lokales Optimum und x > 0 f:  stetig differenzierbar max f(x) x  0 notwendige Bedingung für ein Optimum x > 0: f'(x) = 0 nicht hinreichend: (lokales) Minimum, Maximum oder Sattelpunkt f zweimal stetig differenzierbar: f'(x) = 0, f''(x) < 0 hinreichend für x lokales Optimum und x > 0

11 Prof. Dr. Dr. J. Hansohm Einfache Nichtlineare Optimierung - Beispiel (lokales) Maximum lokales Minimum lokales Maximum Sattelpunkt x f(x) eigentliches Maximum

12 Prof. Dr. Dr. J. Hansohm Nichtlineare unrestringierte Optimierung f:  n  zweimal stetig differenzierbar max f(x) x  n notwendige Bedingung für ein (lokales) Optimum grad f(x) = 0 hinreichende Bedingung für ein lokales Optimum grad f(x) = 0, H(x) negativ definit f:  n  zweimal stetig differenzierbar max f(x) x  n notwendige Bedingung für ein (lokales) Optimum grad f(x) = 0 hinreichende Bedingung für ein lokales Optimum grad f(x) = 0, H(x) negativ definit

13 Prof. Dr. Dr. J. Hansohm Nichtlineare unrestringierte Optimierung (1) Definitheit einer Matrix: Eine symmetrische Matrix H heißt positiv (semi-)definit, wenn x T  x > 0 (> 0) für alle x  0 gilt. Satz: Eine symmetrische Matrix H ist positiv definit genau dann, wenn alle Hauptabschnittsdeterminanten positiv sind. Satz: Eine symmetrische Matrix H ist positiv definit genau dann, wenn alle Eigenwerte positiv sind. Definitheit einer Matrix: Eine symmetrische Matrix H heißt positiv (semi-)definit, wenn x T  x > 0 (> 0) für alle x  0 gilt. Satz: Eine symmetrische Matrix H ist positiv definit genau dann, wenn alle Hauptabschnittsdeterminanten positiv sind. Satz: Eine symmetrische Matrix H ist positiv definit genau dann, wenn alle Eigenwerte positiv sind.

14 Prof. Dr. Dr. J. Hansohm Nichtlineare unrestringierte Optimierung - Beispiel (1) min x x x 1 x 2 - 3x 1 - 7x 2 grad f(x) = (2x 1 + x 2 - 3, 6x 2 + x 1 - 7) = 0  x 1 =1, x 2 =  = 0  (2 - ) (6 - ) - 1 = 0    + 11 = 0  = 4 ± > 0  positiv definit min x x x 1 x 2 - 3x 1 - 7x 2 grad f(x) = (2x 1 + x 2 - 3, 6x 2 + x 1 - 7) = 0  x 1 =1, x 2 =  = 0  (2 - ) (6 - ) - 1 = 0    + 11 = 0  = 4 ± > 0  positiv definit

15 Prof. Dr. Dr. J. Hansohm Nichtlineare unrestringierte Optimierung - Beispiel (2)

16 Prof. Dr. Dr. J. Hansohm Literatur: l Neumann/Morlock: Operations Research München 1993, Hanser-Verlag, Kapitel 4 Abschnitt 4.3. Seite l Domschke/Drexl: Einführung in Operations Research 3. erw. verb. Auflage, Springer- Verlag 1995, Kapitel 8 Abschnitt Seiten l Neumann/Morlock: Operations Research München 1993, Hanser-Verlag, Kapitel 4 Abschnitt 4.3. Seite l Domschke/Drexl: Einführung in Operations Research 3. erw. verb. Auflage, Springer- Verlag 1995, Kapitel 8 Abschnitt Seiten

17 Prof. Dr. Dr. J. Hansohm Konvexe Menge Definition Konvexität von Mengen: Eine (Punkt-)Menge K ist konvex, wenn mit je zwei Punkten P 1, P 2  K auch alle Punkte  P 1 + (1 -  P 2 für 0  1 zu K gehören. Definition Konvexität von Mengen: Eine (Punkt-)Menge K ist konvex, wenn mit je zwei Punkten P 1, P 2  K auch alle Punkte  P 1 + (1 -  P 2 für 0  1 zu K gehören.

18 Prof. Dr. Dr. J. Hansohm Konvexe und Nichtkonvexe Menge - Beispiele Beispiele für konvexe und nicht-konvexe Mengen Satz: Der Durchschnitt zweier konvexer Mengen ist konvex. Beispiele für konvexe und nicht-konvexe Mengen Satz: Der Durchschnitt zweier konvexer Mengen ist konvex.

19 Prof. Dr. Dr. J. Hansohm Konvexe Funktionen Definition Konvexität von Funktionen: Eine Funktion f: K , welche eine konvexe Menge K in  abbildet, heißt konvex, wenn für je zwei Punkte x 1, x 2  K gilt: f (  x 1 + (1 -  x 2 )  f(x 1 ) + (1 -  f(x 2 ) für alle 0  1; d.h.: wenn die Menge (Epigraph) {(z,x) | z > f(x), x  K} “oberhalb” der Funktion f konvex ist. Definition Konvexität von Funktionen: Eine Funktion f: K , welche eine konvexe Menge K in  abbildet, heißt konvex, wenn für je zwei Punkte x 1, x 2  K gilt: f (  x 1 + (1 -  x 2 )  f(x 1 ) + (1 -  f(x 2 ) für alle 0  1; d.h.: wenn die Menge (Epigraph) {(z,x) | z > f(x), x  K} “oberhalb” der Funktion f konvex ist.

20 Prof. Dr. Dr. J. Hansohm Konvexe Funktionen - Beispiel Beispiel für eine konvexe Funktion: f(x) = x 2

21 Prof. Dr. Dr. J. Hansohm Konkave Funktionen Definition Konkavität von Funktionen: Eine Funktion f: K , welche eine konvexe Menge K in  abbildet, heißt konkav, wenn g = -f eine konvexe Funktion ist. Definition Konkavität von Funktionen: Eine Funktion f: K , welche eine konvexe Menge K in  abbildet, heißt konkav, wenn g = -f eine konvexe Funktion ist.

22 Prof. Dr. Dr. J. Hansohm Konkave Funktionen - Beispiel Beispiel für eine konkave Funktion: f(x) = -x 4

23 Prof. Dr. Dr. J. Hansohm Konvexe und konkave Funktionen Eine Funktion ist genau dann linear, wenn sie konvex und konkav ist. Beispiel: Satz: Die Summe konvexer Funktionen ist konvex. Satz: Ist f(x) eine auf K konvexe Funktion, dann ist auch  f(x) für alle reellen  0 auf K konvex. Eine Funktion ist genau dann linear, wenn sie konvex und konkav ist. Beispiel: Satz: Die Summe konvexer Funktionen ist konvex. Satz: Ist f(x) eine auf K konvexe Funktion, dann ist auch  f(x) für alle reellen  0 auf K konvex

24 Prof. Dr. Dr. J. Hansohm Konvexität von Optimierungsproblemen Satz: Ist f(x) eine auf K konkave Funktion, die nur positive Werte annimmt, dann ist auf K konvex. Satz: Seien g i :  n  konvex. Dann ist M = {X  R n  g i (x)  0} eine konvexe Menge Satz: Ist f(x) eine auf K konkave Funktion, die nur positive Werte annimmt, dann ist auf K konvex. Satz: Seien g i :  n  konvex. Dann ist M = {X  R n  g i (x)  0} eine konvexe Menge

25 Prof. Dr. Dr. J. Hansohm Konvexe Optimierungsprobleme Definition Konvexität von Optimierungsproblemen: Ein Optimierungsproblem max (min) f(x) u.d.N. g i (x)  0 x  0 heißt konvex, wenn bei Maximierung (Minimierung) die Zielfunktion f konkav (konvex) und die Funktionen g i der Nebenbedingungen konvex sind. Definition Konvexität von Optimierungsproblemen: Ein Optimierungsproblem max (min) f(x) u.d.N. g i (x)  0 x  0 heißt konvex, wenn bei Maximierung (Minimierung) die Zielfunktion f konkav (konvex) und die Funktionen g i der Nebenbedingungen konvex sind.

26 Prof. Dr. Dr. J. Hansohm Konvexe Optimierungsprobleme - Beispiel Beispiel Maximierung einer konkaven Funktion über einen konvexen zulässigen Bereich: Satz: Ein lokales Optimum eines konvexen Optimierungsproblems ist global. Beispiel Maximierung einer konkaven Funktion über einen konvexen zulässigen Bereich: Satz: Ein lokales Optimum eines konvexen Optimierungsproblems ist global.

27 Prof. Dr. Dr. J. Hansohm Kuhn-Tucker-Bedingungen Verallgemeinerung der klassischen Multiplikatorenmethode von Lagrange zur Bestimmung von Extremstellen unter Nebenbedingungen, wobei diese nicht nur Gleichungen, sondern auch Ungleichungen enthalten Verallgemeinerte Lagrange-Funktion: L (x 1,..., x n ; u 1,..., u m ) = f(x 1,..., x n ) -  i  1 u i  g i (x 1,..., x n ) Verallgemeinerung der klassischen Multiplikatorenmethode von Lagrange zur Bestimmung von Extremstellen unter Nebenbedingungen, wobei diese nicht nur Gleichungen, sondern auch Ungleichungen enthalten Verallgemeinerte Lagrange-Funktion: L (x 1,..., x n ; u 1,..., u m ) = f(x 1,..., x n ) -  i  1 u i  g i (x 1,..., x n )

28 Prof. Dr. Dr. J. Hansohm Theorem von Kuhn/Tucker (1) Gegeben sei ein konvexes Optimierungs- problem max f(x 1,..., x n ) u.d.N. g i (x 1,...., x n )  0i = 1,..., m x j  0j = 1,..., n. Die Funktionen f und g i, i = 1,..., m, seien partiell nach allen x j differenzierbar. Gegeben sei ein konvexes Optimierungs- problem max f(x 1,..., x n ) u.d.N. g i (x 1,...., x n )  0i = 1,..., m x j  0j = 1,..., n. Die Funktionen f und g i, i = 1,..., m, seien partiell nach allen x j differenzierbar.

29 Prof. Dr. Dr. J. Hansohm Theorem von Kuhn/Tucker (2) Der Vektor (x 1,..., x n ) ist genau dann eine optimale Lösung des konvexen Optimie- rungsproblems, wenn es einen Vektor (u 1,..., u m ) gibt, so daß die folgenden Bedingungen (Kuhn-Tucker-Bedingungen) erfüllt sind: Der Vektor (x 1,..., x n ) ist genau dann eine optimale Lösung des konvexen Optimie- rungsproblems, wenn es einen Vektor (u 1,..., u m ) gibt, so daß die folgenden Bedingungen (Kuhn-Tucker-Bedingungen) erfüllt sind:

30 Prof. Dr. Dr. J. Hansohm Literatur: l Neumann/Morlock: Operations Research München 1993, Hanser-Verlag, Kapitel 4 Seite l Domschke/Drexl: Einführung in Operations Research 3. erw. verb. Auflage, Springer- Verlag 1995, Kapitel 8 Abschnitt 8.2. Seiten l Neumann/Morlock: Operations Research München 1993, Hanser-Verlag, Kapitel 4 Seite l Domschke/Drexl: Einführung in Operations Research 3. erw. verb. Auflage, Springer- Verlag 1995, Kapitel 8 Abschnitt 8.2. Seiten

31 Prof. Dr. Dr. J. Hansohm Quadratische Optimierung (1) max f(x) = c T  x + x T  D  x u.d.N. g(x) = A  x - b  x , x  n O.B.d.A.: Für die Elemente der Matrix D gilt: d kj = d jk, d.h. D ist symmetrisch Falls d kj  d jk, so sind die Elemente durch das arithmetisches Mittel (d kj + d jk )/2 zu ersetzen. max f(x) = c T  x + x T  D  x u.d.N. g(x) = A  x - b  x , x  n O.B.d.A.: Für die Elemente der Matrix D gilt: d kj = d jk, d.h. D ist symmetrisch Falls d kj  d jk, so sind die Elemente durch das arithmetisches Mittel (d kj + d jk )/2 zu ersetzen.

32 Prof. Dr. Dr. J. Hansohm Quadratische Optimierung (2) Satz: Die quadratische Funktion f(x) = c T  x+ x T  D  x ist konvex (konkav) genau dann, wenn die symmetrische Matrix D positiv (negativ) semidefinit ist. Satz: Die quadratische Funktion f(x) = c T  x+ x T  D  x ist konvex (konkav) genau dann, wenn die symmetrische Matrix D positiv (negativ) semidefinit ist.

33 Prof. Dr. Dr. J. Hansohm Beispiel eines quadratischen Optimierungsproblems Ein Monopolist bietet 2 Produkte in den Mengen x 1 und x 2 an. Seine beiden Preis-Absatz-Funktionen lauten: 1. p 1 (x 1 ) = 6 - x 1 /40 < x 1 < p 2 (x 2 ) = 10 - x 2 0 < x 2 < 10. Gesucht wird das erlösmaximale Produktionsprogramm. Die Zielfunktion lautet dann: max E(x 1, x 2 ) = p 1 (x 1 ) x 1 + p 2 (x 2 ) x 2 Folgende Absatzbeschränkungen werden untersucht: A: x 1 < 15x 2 < 7 B: x 1 < 10x 2 < 4 C: x 1 + x 2 < 10 Ein Monopolist bietet 2 Produkte in den Mengen x 1 und x 2 an. Seine beiden Preis-Absatz-Funktionen lauten: 1. p 1 (x 1 ) = 6 - x 1 /40 < x 1 < p 2 (x 2 ) = 10 - x 2 0 < x 2 < 10. Gesucht wird das erlösmaximale Produktionsprogramm. Die Zielfunktion lautet dann: max E(x 1, x 2 ) = p 1 (x 1 ) x 1 + p 2 (x 2 ) x 2 Folgende Absatzbeschränkungen werden untersucht: A: x 1 < 15x 2 < 7 B: x 1 < 10x 2 < 4 C: x 1 + x 2 < 10

34 Prof. Dr. Dr. J. Hansohm Beispiel eines quadratischen Optimierungsproblems - Graph


Herunterladen ppt "Prof. Dr. Dr. J. Hansohm Nichtlineare Optimierung Einführung Konvexe Optimierungsprobleme Spezielle Verfahren (Penalty, etc.) Evolutionsstrategien Einführung."

Ähnliche Präsentationen


Google-Anzeigen