Neuere Entwicklungen Globale Optimierung Ameisensysteme

Slides:



Advertisements
Ähnliche Präsentationen
Signale & Systeme 6. Große Datenbestände (Prinzipien & Anwendungen)
Advertisements

Struktur und Eigenschaften der Materialien Vorlesung Teil 1: Metalle und Legierungen Prof. Dr.-Ing. Dorothee Schroeder-Obst.
Motivation Compilerbau klingt abstrakt, Kenntnisse sind aber für die Programmierung von Vorteil Übersetzung von Hochsprachen sorgt für tieferes Verständnis.
Prof. Dr. Holger Schlingloff
Qualitätssicherung von Software (SWQS)
Übersicht zu Verfahren des Soft Computing
Komplexe Zahlen und Fourier-Transformation
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Themenschwerpunkte Übung 3:
Prof.Dr.S. Albers Prof. Dr. Th. Ottmann
WS Algorithmentheorie 08 – Dynamische Programmierung (3) Konstruktion optimaler Suchbäume Prof. Dr. Th. Ottmann.
Geometrisches Divide and Conquer
Didaktik der Analysis, Linearen Algebra und Analytischen Geometrie
Numerische Berechnung instationären Wärmeleitungsproblems
Dipl. Volkswirt, Dipl. Jurist Felix Probst, Universität Passau,
Willkommen zu Vorlesung
Approximation von Nullstellen: Newtonverfahren
Abfragen – Tipps und Tricks Buch S102ff (Informatik I, Oldenbourg-Verlag) Nach einer Vorlage von Dieter Bergmann.
Von Molekülen zu Systemen
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
Prof. Dr. Christoph Pflaum Universität Erlangen-Nürnberg
Rechner Praktikum Numerische Gasdynamik Nuss-Projekt 2: Riemannlöser
Proseminar „Überraschungen und Gegenbeispiele in der Analysis“ SS2009
Generalisierte additive Modelle
Ansprechpartner: Excel für SEOs =Wenn(A1=zuhören;gute Ideen;Feierabend) Samstag
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Fundamente der Computational Intelligence
Mehrkriterielle Optimierung mit Metaheuristiken
Praktische Optimierung
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Werkzeugmaschinen Antriebe Hauptantriebe © Prof. Dr. H.-J. Weber 09.04
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
Technische Dokumentation für Sollich Turbotemper-Maschinen
Bedarfsorientierte Mindestsicherung in Österreich - Aktueller Stand
Inhalt Definition des Integrals Infinitive Flächen (offenes Intervall)
Fourier-Reihen Was ist eine Fourier-Reihe?
Lebensdauer eines x-jährigen
© Dr. rer. pol. Jens Siebel, 2011 Beispiel (Lineare Optimierung) Wir lösen das lineare Optimierungsproblem: Zielfunktion: z(x, y)=x-y+1min! Nebenbedingungen:
Marktübersicht Die Linusbank Problembeschreibung Projektplan
Managemententscheidungsunterstützungssysteme (Ausgewählte Methoden und Fallstudien) ( Die Thesen zur Vorlesung 3) Thema der Vorlesung Lösung der linearen.
Ruhr-Universität Bochum Sales Engineering and Product Management - Fachschaft - Fachschaft Physik Prof. Dr. rer. nat. Ulrich Köhler.
1 Mathematical Programming Nichtlineare Programmierung.
Fourier-Analyse und technologische Anwendungen
Modellbasierte Software-Entwicklung eingebetteter Systeme
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Geoinformation III Vorlesung 1 WS 2001/02 Punkt-in-Landkarte I (Streifenkarte)
09-Arbeiten mit einfachen Funktionen1 Aufbau und Einsatz von Funktionen l Funktionsname(Argument1;Argument2;...) l Argumente = Werte, die in die Berechnung.
Nichtlineare Optimierung
Die Zeitung der Zukunft
prof. dr. dieter steinmann Seite: 1 Vorlesung Unternehmensprozesse IT-Betriebskonzept / IT Governance.
Institut für Kartographie und Geoinformation Prof. Dr. Lutz Plümer Diskrete Mathematik II Foliendesign: Jörg Steinrücken & Tobias Kahn Vorlesung
Evolutionärer Entwurf neuronaler Netze
WS03/041 Dynamische Programmierung (3) Konstruktion optimaler Suchbäume Prof. Dr. S. Albers Prof. Dr. Th. Ottmann.
Algorithmen und Datenstrukturen
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
Algorithmen und Datenstrukturen Prof. Dr. Ralf Möller Universität zu Lübeck Institut für Informationssysteme Stefan Werner (Übungen) sowie viele Tutoren.
Optimierung als Ziel Prof. Dr. Dörte Haftendorn, Leuphana Universität Lüneburg,
Referent: IHR NAME, Thema: IHR THEMA Seminar S 20X Titel des Seminars bei Prof. Dr. Hermann Hill, Xxxsemester 201X 1 Titel Ihrer Seminararbeit Referent:
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
ANALYSIS KLASSE 10 - Einführung des Ableitungsbegriffs - Felix Pohl Michael Gabler.
Algorithmen und Datenstrukturen
Praktische Optimierung
Deep Learning Simon Fankhauser, Donato Villani - AAI HS 17.
Theorie der unscharfen Mengen
Prof. Dr. Günter Gerhardinger Soziale Arbeit mit Einzelnen und Familien Konzepte: Das Psychosoziale Konzept nach Florence Hollis Der psychosoziale (diagnostische)
Die Arbeitsfelder der Sozialen Arbeit mit Familien
Algorithmen und Datenstrukturen
 Präsentation transkript:

Neuere Entwicklungen Globale Optimierung Ameisensysteme Clusterverfahren sonstige Ansätze Ameisensysteme Künstliche Neuronale Netze

Globale Optimierung Problemstellung: f: A ® Â, A Í Ân Ges. xmin Î A mit f(xmin) = f* = min { f(x) | x Î A } Lipschitz Bedingung: | f(x) - f(y) | £ L || x - y || Eindimensionaler Fall: | f(x) - f(y) | £ max { f‘(z) | z Î A } | x - y | Es lassen sich Intervalle ausschließen, die aufgrund der Lipschitz Bedingung das globale Optimum nicht enthalten können.

Problem der globalen Optimierung Existenz (Stetigkeit, Kompaktheit) Praktikabilität (Dichte des Gitters) Approximation (cos(x)-a*x für -4<x<4) a > 0 a < 0

Clusterverfahren Idee A: gleichverteiltes Netz, lokale Minimumsuche vom Punkt mit dem kleinsten Wert Idee B: Jeweils von einem Zufallspunkt aus wird eine lokale Minimumsuche durchgeführt (Multistart Methode) Idee C: Cluster Punkte eines gleichverteilten Netzes so, daß die Cluster um die lokalen Minima liegen. Lokale Minimumsuche vom Punkt mit dem kleinsten Wert in jedem Cluster

Clusterverfahren - Distanzermittlung Euklidischer Abstand allein vernachlässigt die Informationen, die durch die Funktionswerte der Punkte gegeben sind. Abhilfe: Einen (oder mehrere) Gradientenschritte durchführen Distanz aufgrund eines Dichtemaßes festlegen Punkt und Gradient in die Distanz mit eingehen lassen

Sonstige Ansätze Genetische Algorithmen, Evolutionsstrategien Simulated Annealing ausgehend von einem lokalen Minimum durch Zufallspunkte einen Punkt mit einem kleineren Funktionswert finden und so ein neues lokales Minimum ermitteln Statistische Methoden (Wiener Prozeß) Branch & Bound (Horst)

Testfunktion für globale Minimumsuche f(x1,x2)=4 x12 - 2,1 x14 + 1/3 x16 + x1x2 - 4 x22 + 4 x24

Ameisensysteme Ameisensysteme sind wie bei den genetischen Algorithmen der Versuch, durch Adaption natürlichen Verhaltens Optimierungsprobleme heuristisch zu lösen. Beispiel: A B B B A A

Ameisensysteme Ameisen hinterlassen auf ihrem Weg ein Pheromon andere Ameisen gehen mit höherer Wahrscheinlichkeit einen Weg je höher der Pheromon Anteil ist, den sie wahrnehmen Dadurch verstärkt sich der Anteil an Pheromon auf diesem Weg

Ameisensysteme Beispiel Traveling Salesman Problem n Orte sind so zu durchlaufen, daß die Gesamtlänge des Weges minimal wird („Rundreiseproblem“). 5 3 2 1 4 Ameise wählt einen nächsten Ort mit einer Wahr- scheinlichkeit in Abhängigkeit der Distanz zum nächsten Ort und dem Grad an Pheromon Jeder Knoten des Graphen wird mit einer Anzahl von Ameisen versehen Ein schon durchlaufener Ort ist Tabu, es sei denn, die Tour würde damit zur Rundreise Wenn eine Ameise eine Rundreise geschafft hat, so hinterläßt sie Pheromon an jeder Kante, die sie durchlaufen hat

Ameisensysteme Parameter: Menge an Pheromon abhängig von der Güte der Rundreise Parameter Q (cycle) „altes“ Pheromon verflüchtigt sich Parameter r Distanz zum nächsten Ort und Pheromon- intensität werden unterschiedlich gewichtet Parameter a (Ort) und b Pheromon wird sofort ausgeschüttet unabhängig von der Distanz (quantity, density)

Ameisensysteme Ergebnisse: (jeweils 10 Durchläufe) ( · = gute Lösungen) (AS =Ameisensystem TS=Tabu Search SA=Simulated Annealing) (8 einfache Heuristiken ohne Verbesserung)

Künstliches Neuron x1 x2 ... xn w1 w2 wn net o F o ... Summations- funktion net o Transfer- funktion F Output- funktion o ... net(...wi...xi...) a=F(a, net) o(a) n net= å wi*xi i=1 a=1/(1+e-g*net) o=a

Formen von Neuronalen Netzen (NN) Selbstorganisierende Netze „Feed Forward“ Netze Eingangsschicht Ausgangsschicht

Backpropagation Netzwerk Gewichte Eingangs- muster Ausgangs- muster Fehler- korrektur (Lernregel) Schicht

Delta Lernregel Fehler definiert als E = ½ S (zi - oi)2, wobei oi der tatsächliche und zi der gewünschte Output ist Hierauf wird ein Gradientenverfahren angewandt, welches ergibt: wij(t+1) = wij(t) + s di oj s ist hierbei die Lernrate, bzw. die Schrittweite beim Grad.-Verfahren di = F‘(neti) * (zi - oi) für die Outputschicht di = F‘(neti) * S dh whi über alle h Nachfolgeschichten sonst F(neti) ist hierbei die Transferfunktion des Neurons i

Delta Lernregel - Vorgehensweise Initialisierung: Alle Gewichte erhalten zufällige kleine Werte von -0,1 bis +0,1 Anlegen der Inputdaten, ermitteln der Outputdaten, Fehler feststellen, mit Deltaregel lernen. Vorgang wiederholen. Stop bei ausreichend geringem Fehler Verbesserung der Lernregel mit Momentum Dwij(t) = s di oj + m Dwij(t-1) und wij(t+1) = wij(t) + Dwij(t)

Lineare Diskriminanzanalyse mit NN net = w0 + å wi*xi i=1 n 1 x1 xn w0 w1 wn ... 1 = solvent 0 = insolvent

NN und Kursprognose Beispiel: Eingabe - 20 fortlaufende Tageskurse Eingangs- schicht Hidden Layers Ausgangs- Beispiel: Eingabe - 20 fortlaufende Tageskurse Ausgabe - 3 darauf folgende Tageskurse Lernen jeweils an alten Datenreihen Transferfunktionen: sigmoid und sinus

NN und Reihenfolgeprobleme Trainiert mit durch anderen Algorithmus errechneten optimalen Reihenfolgen (Johnson-Algor.) Reihenfolge- nummer Zeiten Produktionsstufe I Zeiten Produktionsstufe II solange Aufträge vorhanden ermittle kürzeste Bearbeitungszeit der Aufträge Auftrag eindeutig? streiche den eingeplanten Auftrag J N Auftrag auf 1. freie Position auf letzte freie Einer dieser Aufträge Min. Bearbeitungszeit bei Prod. Stufe I ? beim selben Auftrag?

Problem des Overlearning Backpropagation Netz mit weniger Verbindungen Prognoseproblem Baetge u.a.: „Früherkennung der Unternehmenskrise - NN als Hilfsmittel für Kreditprüfer“ Polynom n.ten Grades ist i.a. eine sehr schlechte Prognose, geht aber durch alle vorgegebenen Punkte.

ALS - Algorithmus berechne Modellparameter bei festen (willkürlichen) Skalierungen Skalierungen fest Modellparameter passe Skalierungen sukzessiv an bei festen Modellparametern (und bei festen anderen Skalierungen)

NN bei qualitativen Daten schlecht mittel gut 1 schlecht mittel gut w1 w1+w2 w1 w2 nominaler Input quantitativer Input

Klassifikation mit Backpropagation NN Das NN soll die Merkmalsausprägungen wieder reproduzieren mit einer der Cluster- anzahl vorgegebenen verdeckten Schicht Entspricht einer Art Haupt- komponentenanalyse mit an- schließender Festlegung zu den Klassen; z.B. das Objekt wird der Klasse (blaues N) zugeordnet, die den höchsten Input des ent- sprechenden Datensatzes erfährt. „bottleneck“ Merkmalsausprägungen sollen reproduziert werden

Kohonen Netz Neuronen der SOM regen sich unter- einander an in Abhängigkeit ihrer Lage im Raum. nahe N werden angeregt mittlere N werden gehemmt weiter weg liegende N erhalten nichts Self Organizing Map (SOM) Eingabeschicht wki x1 x2 N der SOM Schicht bildet aus den Outputs der Eingabeschicht mit den Gewichten: å wki*xi , erregt, hemmt mit gauss‘scher Glockenkurve benachbarte N. Vereinfachung: nur das am stärksten extern erregte N wird betrachtet, å xi =1 und å wki für alle Neuronen k gleich. Veränderung der Gewichte mittels Delta- regel. Gewichte gleichen sich den Outputs an.

Kohonen Netz und Traveling Salesman Pr. SOM eindimensional (Ring, wie dargestellt) Eingabevektoren 2-dim (x1, x2) Ortskoord. Nach einer Reihe von Schritten (z.B. 10000) gleichen die Gewichte der N den Ortskoord. Reihenfolge auf dem Ring ergibt Reihen- folge der Tour

Kohonen Netz und Klassifikation SOM Schicht entsprechend der Anzahl der Klassen Netz soll bei Anlegen einer Merkmalsausprägung mit der Erregung eines „winner“ Neurons reagieren. Dies ent- spricht dann der Klasse. Teilweise besser als mit hierarchischen Verfahren gewonnene Klassen, benötigt auch keine Distanzmatrix. Aber lange Rechenzeiten und kein Vergleich mit z.B. Austauschverfahren. Eingabeschicht entsprechend der Dimension der Merkmalsvektoren

Vor- und Nachteile Neuronaler Netze adaptives Lernen sinnvolle Reaktion auch bei bisher nicht berücksichtigten Problemen relativ stabil gegenüber logischen Widersprüchen keine Erklärungskomponente keine Verifizierung der Entscheidung sensibel gegenüber Veränderungen im Datenmaterial Qualität abhängig von der Güte der Trainings-daten und dem Typ des Neuronalen Netzes