Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

1 Anwendungen evolutionärer Algorithmen 1.kontinuierliche Parameter 2.diskrete Parameter in kombinatorischen Problemen 3.Design Optimierung.

Ähnliche Präsentationen


Präsentation zum Thema: "1 Anwendungen evolutionärer Algorithmen 1.kontinuierliche Parameter 2.diskrete Parameter in kombinatorischen Problemen 3.Design Optimierung."—  Präsentation transkript:

1 1 Anwendungen evolutionärer Algorithmen 1.kontinuierliche Parameter 2.diskrete Parameter in kombinatorischen Problemen 3.Design Optimierung

2 2 t = 0 Initialisiere Do Reproduktion Rekombination Mutation Dekodierung Evaluierung Selektion t := t + 1 Until stop Algorithmus: Evolutionäre Algorithmen Evolutionsstrategien Genetische Algorithmen Genetische Programmierung Evolutionäre Programmierung Evolutionäre Algorithmen

3 3 Eigenschaften und Anwendungen populationsbasiert (erlauben parallele Suche) wenig Problemwissen nötig (z.B. keine Gradienteninformation) stochastisches Suchverfahren diskontinuierliche Probleme diskrete / kombinatorische Probleme multimodale Probleme multikriterielle Probleme verrauschte Qualitätsfunktion Anwendung: Eigenschaften:

4 4 Parameter Optimierung (Teil I) kontinuierliche Parameter Evolutionsstrategien

5 5 Globale Schrittweitensteuerung x1x1 x2x2 xnxn Chromosome: NachkommeEltern Schrittweite 1 2 Eltern x1x1 x2x2 Wahrscheinlichkeit für die Erzeugung eines Nachkommens 1 > 2 zufällige Mutation

6 6 1/5 - Erfolgsregel basiert auf der Analyse der Fortschrittsgeschwindigkeit für das Korridormodell und Kugelmodell. Mutation bei p e = 0.2 Nur Nachkommen die besser sind als ihre Eltern ergeben nicht den maximalen Fortschritt!!! Anpassung der Schrittweite: Maximaler Fortschritt, wenn 1/5 der Nachkommen besser sind a)bestimmen wie viele Nachkommen besser als die Eltern sind b)vergrößern / verkleinern der Schrittweite je nach Ergebnis

7 7 mutative Anpassung - Selbstadaptation Idee: für die Adaptation des Strategieparameters den gleichen Prozeß zu nutzen wie bei der Optimierung der Objektparameter x i. Waren die Objektparameter gut, so war auch die Schrittweite gut die zu ihrer Erzeugung genutzt wurde! Chromosom: Anpassung der Schrittweite Anpassung der Objektparameter

8 8 mutative Schrittweitensteuerung pseudoCode t = 0 Initialisiere Objektparameter der Eltern Population Initialisiere Strategieparameter der Eltern Population do // alle Generationen für alle Nachkommen wähle Eltern Rekombination Objektparameter Rekombination Strategieparameter Mutation der Objektparameter Mutation der Strategieparameter Evaluieren end Selektion (neue Elternpopulation) t := t + 1 Until stop

9 9 Source

10 10 Selektionsdruck Wie stark wird selektiert? - Größe der Elternpopulation - Größe der Nachkommenpopoulation ES(10,100): = 10, = 100 Selektionsdruck: s = / s = 1: keine Selektion -> kein Fortschritt zufällige Suche bei der Kommastrategie s 0: hoher Fortschritt geringer Einfluß des Zufalls z.B. geringe Wk. lokale Optima zu überwinden Notation:

11 11 Sphere Function

12 12 Ackleys Testfunktion

13 13 Selektionsdruck - Beispiel unimodale Funktion multimodale Funktion (40 dimensional) geringer Selektionsdruck ES(50,100) ES(20,100) ES(10,100) ES(20,100) ES(50,100)

14 14 Ellipsoidal function

15 15 Individuelle Schrittweiten Jede Variable hat eine eigene Schrittweite Chromosome: i xixi globale Anpassung lokale Anpassung Standard Werte:

16 16 Kugel Funktion Kugelfunktion individuelle Schrittweite globale Schrittweite

17 17 Ellipsoidal Funktion schnelle grobe Anpassung bei globaler Schrittweite besser in den ersten Generationen schlechter in der Nähe des Optimums individuelle Schrittweite globale Schrittweite

18 18 Beispiel – individuelle Schrittweiten kleine Populationen ES(1,10) individuelle Schrittweite globale Schrittweite

19 19 Probleme Koppelung von Strategieparameter an das Individuum Selektionsdruck zu optimaler Schrittweite Probleme durch stochastische Fluktuationen der Schrittweite verstärkt durch kleine Populationen hohe Anzahl an Strategieparametern Prinzip der mutativen Schrittweitenanpassung

20 20 Ursachen Die Stärke der Variationen von Schrittweiten innerhalb einer Population ist ähnlich zu den Variationen in aufeinander folgenden Generationen. Innerhalb der Population wird eine ausreichende Variation der Parameter benötigt um eine wirkungsvolle Selektion zu gewährleisten. In aufeinander folgenden Generationen sind allerdings wesentlich kleinere Variationen vorteilhaft, um stochastische Fluktuationen bei der Anpassung der Strategieparameter zu vermeiden. Zwei mögliche Ursachen sind: Selbst bei großen Schrittweiten kann die tatsächlich realisierte Schrittweite sehr klein sein. Würde ein solches Individuum selektiert, wird eine große Schrittweite vererbt, obwohl eine Mutation durch eine kleine Schrittweite realisiert wurde. Die Anpassung der Schrittweite funktioniert in diesem Fall nicht.

21 21 Derandomisierte Verfahren 1.Anpassung der Schrittweite aufgrund der realisierten Schrittweite 2.Dämpfungsfaktor der Adaptation realisierte Mutation des selektierten Individuums erwartete Stärke der Mutation Dämpfung

22 22 Kumulation der Schrittweiten Nutzung der Informationen aus vorhergehenden Generationen Pfad der Evolution: Anpassung der Schrittweite:

23 23 Richtung der Mutation Wahrscheinlichkeit für die Erzeugung eines Nachkommen globale Schrittweite individuelle Schrittweite Kovarianzmatrix 1 Parametern Parameter n 2 / 2 Parameter Parameter 1 Parameter 2 Parameter 1 Parameter 2 Parameter 1 Parameter 2

24 24 CMA Kovarianzmatrix-Adaptation 1.Bestimmung der selektierten Mutation 2.Berechnung des Pfades 3.Anpassung einer globalen Schrittweite 4.Anpassen der Kovarianzmatrix 5.Anpassen der Objektparameter Mutation korrelierte Mutationen Eigenschaften: derandomisiert Dämpfung der Schrittweitenadaptation Anpassung der Kovarianzmatrix basierend auf dem Pfad der Evolution (n 2 + n)/2 freie Parameter zusätzl. globale Schrittweite Ackley Funktion Ellipsoidal Funktion

25 25 Selektionsstrategie + Strategie: Aus ( + ) Individuen werden die besten Individuen selektiert, Strategie: Aus den Nachkommen werden die besten Individuen selektiert nur Verbesserungen möglich Hängenbleiben in lokalen Minima zufällig gute Lösungen (verrauschte Qualitätsfunktion) bleiben in der Population plus Strategie:

26 26 Optimierung kontinuierlicher Parameter Selektionsdruck Selektionsmechnismen (Komma, Plus) Schrittweitenanpassung globale mutative Schrittweitenanpassung Skalierung der Parameter individuelle mutative Schrittweitenanpassung aufwendige Anpassung Probleme bei mutativer Anpassung durch hohe Anzahl von Parametern (große Populationen nötig) CMA Strategie (Covarianz Matrix Adaptation) Derandomisierte Anpassung der Schrittweiten Kummulation der Schrittweiten korrelierte Mutationen Zusammenfassung

27 27 Teil II Diskrete Probleme

28 28 Gesucht: NP-vollständig unwahrscheinlich effiziente Algorithmen zur Lösung dieses Problems zu finden Der primitive Algorithmus, der einfach alle Möglichkeiten durchprobiert hat eine Komplexität von o(n!) häufig völlig ausreichend eine gute Lösung zu finden Das Travelling Salesman Problem Route zwischen n Städten, die jede Stadt genau einmal besucht

29 29 Kodierung Kodierung ist problemspezifisch zu wählen Es gibt kein allgemeines Kochrezept, um eine gute Kodierung zu finden Ähnliche Phänotypen sollten durch ähnliche Genotypen dargestellt werden Ähnlich kodierte Lösungskandidaten sollten eine ähnliche Fitneß haben Starke Kausalität Der Suchraum (die Menge möglicher Lösungskandidaten) sollte, soweit möglich, unter den verwendeten genetischen Operatoren abgeschlossen sein Alle Lösungen sollten darstellbar sein Prinzipien: Wie kodiere ich das Problem:

30 30 Binärstrings: bei (fast) jeder Operation (sei es Crossover oder Mutation) entstehen ungültige Lösungen Allgemein sind Binärdarstellungen für Permutationen nur sehr bedingt geeignet Repräsentation/Kodierung Stadt 1Stadt 2 Stadt 1? Mutation

31 31 Die Zahl (Stadt) j ist an i-ter Stelle aufgelistet, falls die Tour von i nach j führt. Adjacency Representation Tour der Länge n wird durch eine Liste natürlicher Zahlen dargestellt Crossover: klassischer Crossover nicht praktikabel, da er ungültige Lösungen erzeugt (z.B. können Zahlen danach mehrfach in der Liste vorkommen). Beispiel für n = 7: ( ) repräsentiert die Tour Jede Tour hat somit genau eine Adjazenzdarstellung ungültige Tour möglich:

32 32 klassischer Crossover klassischer Crossover nicht praktikabel, da er ungültige Lösungen erzeugt (z.B. können Zahlen danach mehrfach in der Liste vorkommen). Spezielle Crossover Operatoren sind nötig Eltern 1Eltern 2

33 33 abwechselnd (und auch zufällig) Kanten vom ersten und zweiten Elternteil wählen sollte eine dieser Kanten vorzeitig ein Kreis erzeugen, so wird eine zufällige Kanten aus der Menge der noch übrigen Kanten gewählt. Alternating Edges Crossover p1 = ( ) p2 = ( ) könnten folgenden Nachkommen erzeugen: o = ( ) vom ersten Elternteil wird der erste Knoten (die 3) gewählt, dann vom ersten Elternteil die 1 und 7, dann die 6, 2 und die 5 vom zweiten Eltern An die letzte Position kann weder die 6 vom ersten noch die 1 vom zweiten Elternteil eingefügt werden, ohne den Kreis frühzeitig zu schließen. Es wird also die 4 gewählt, da sie noch übrig ist. Beispiel für n = 7:

34 34 Alternating Edges Crossover

35 35 Diese Liste repräsentiert eine Tour unter Zunahme einer sortierten Referenzliste C (z.B. C= ( )) ( ) Tour Die 2 am Anfang besagt: Nehme das zweite Element in C als ersten Wegpunkt und lösche es aus C. Die nächsten Zahlen in der Darstellung werden auf die selbe Art und Weise interpretiert. Die letzte Zahl ist immer 1, da C zu diesem Zeitpunkt nur noch 1 Element enthält. Ordinal Representation

36 36 Ordinal Representation Vorteil: p1 = (2 3 1 | ) und p2 = (6 4 5 | ) o1 = ( ) o2 = ( ) Nachteil: Teil-Tour linksseitig des Crossover Punktes wird nicht verändert. Die rechte Seite wird stark verändert. Mutation ist möglich, indem z.B. einzelne Werte im Rahmen des für ihre Position gültigen Wertebereiches verändert werden. keine ungültigen Routen klassische Crossover funktioniert Beispiel für n=7:

37 37 Path Representation Die einfachste Art eine Tour darzustellen ist die Reihenfolge der Elemente in einer Liste direkt als Weg zu interpretieren. ( ) Tour Problem: Mutation ( ) Beispiel:

38 38 Mutation ( ) Zufälliges Einfügen Displacement / Insertion Zufälliges Vertauschen Reciprocal Exchange ( ) ( ) (3 4 |7 6 1| 2 5) Inversion ( )

39 39 zwei zufällige Crossoverpunkte wählen Werte zwischen den Punkten vertauschen Städte links und rechts der Crossoverpunkte wieder an ihrer Orginalposition einfügen, sofern sie die Gültigkeit der Darstellung nicht verletzen Sollte dies aber der Fall sein: statt dessen den Wert einfügen, der vor der Crossover Operation an der Stelle stand, an der nun der gleiche Wert steht wie der, der eingetragen werden soll. Partially Matched Crossover (PMX) Es wird eine Teiltour aus einem Elternteil übernommen und versucht die Reihenfolge und Position möglichst vieler Städte aus dem anderen Elternteil zu erhalten. Idee: Algorithmus

40 40 Schritt 2: ohne Konflikt an den ursprünglichen Positionen: Schritt 3: Lösen der Konflikte In o1 konnte die 4 nicht eingefügt werden, da sie schon an Stelle 5 steht. Also wird sie durch das Element, welches zuvor an Stelle 5 stand, ersetzt (die 5). Schritt 1: Vertauschung der Städte zwischen den Crossover Punkten o1 = ( ) o2 = ( ) Beispiel für n = 7 p1 = (1 4 | | 2) p2 = (5 2 | | 1) o1 = (x x | | x) o2 = (x x | | x) o1 = (1 x | | 2) o2 = (x 2 | | 1)

41 41 Qualitätsfunktion M ij : Distanz von Stadt i zu Stadt j M ii = 0 für alle i der Weg ist nicht richtungsabhängig M symmetrisch Qualitätsfunktion :

42 42 Beispiel PMX crossover zufälliges Vertauschen Fitnessverlauf bester Pfad

43 43 Path beste Lösung

44 44 Dauer der Optimierung (bzw. Qualität der gefundenen Lösung) wird durch die Genotype – Phänotyp Transformation und den Operatoren beeinflußt Kodierung im Chromosom sollte dem Problem angepaßt sein (Binärstrings / diskret / kontinuierlich) Angepaßte Operatoren Crossover: Erhalten von Informationen aus allen Eltern Mutation: beibehalten wesentlicher Informationen des Individuums (lokale und kleine Mutationen) Verbesserung der Lösungen auch bei ungünstiger Kodierung Beurteilung der Qualität der gefundenen Lösung Testprobleme generieren Zusammenfassung

45 45 geometrisch ppitch stagger angle w 1,w 2 wedge length 1, 2 wedge angle t max maximal thickness R 1, R 2 radius of trailing and leading edge Spline ppitch x i = (x i,y i )cart. coordinates of control points Kodierung / Modelle

46 46 pressure loss Original evolutionär optimiert 45% Reduktion des Druckverlustes Ergebnisse: 2D Schaufel Optimierung Qualitätsfunktion: DruckverlustAbströmwinkel geometrische Randbedingungen f(x) = 1 f 1 ( ) + 2 f 2 ( 2 ) + 3 f 3 (x min ) + 4 f 4 (x max ) Druckverlust Abströmwinkel Optimierung in zwei Phasen: 1 << 2

47 47 Multikriterielle Optimierung multikriterielle Optimierung Qualiät – Kosten Stabilität – Gewicht Stabilität Gewicht dominated solutions Pareto optimale Lösungen infeasible region standard Methoden: Randbedingungen Q 1 <= Q 1,s (maximal weight <= M max ) weighted aggregation Q = w 1 Q 1 + w 2 Q 2 pareto optimisation non-dominated solutions pareto basierte evolutionäre Optimierung NSGAII

48 48 DWA: Änderung der Gewichtung während der Optimierung Mechanismus: Dynamik von w 1,2 Dynamic Weighted Aggregation w1w2 Fitness Turbinenblatt 1. Druckverlust 2. Auslasswinkel Simulation

49 49 2D3D 1h/Evaluation16h/Evaluation 7Tage/Optimierung4Monat/Optimierung 12 CPUs64 CPUs 3D Schaufel Optimierung Repräsentation B-Spline Fläche

50 50 Qualitätsfunktion outlet angle geometry outlet angle pressure loss (to include mixing loss) static outlet pressure engine axis

51 51 The Pareto Front I minimaler Druckverlust guter Kompromiss minimale Schwankung Optimierung multi objective

52 52 Zusammenfassung Definition der Repräsentation wenige Parameter -> schnelle Konvergenz hochdimensional -> Flexibilität der Repräsentation Darstellbarkeit des Optimums lokale und stark kausale Repräsentation Reale Probleme sind häufig multikriteriell Lösung: Aggregation der Kriterien ist effizient aber benötigen Vorwissen Spezielle Algorithmen existieren (z.B. DWA / NSGAII) Qualitätsfunktion Berücksichtigung aller Kriterien Welche Lösungen sind wirklich optimal? Iterativer Prozeß zwischen Optimierung und Analyse

53 53 EA –Library:


Herunterladen ppt "1 Anwendungen evolutionärer Algorithmen 1.kontinuierliche Parameter 2.diskrete Parameter in kombinatorischen Problemen 3.Design Optimierung."

Ähnliche Präsentationen


Google-Anzeigen