Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/2001 379 8. Andere Paradigmen Inhalt dieses Kapitels 8.1 Induktive Logik-Programmierung.

Slides:



Advertisements
Ähnliche Präsentationen
Memetische Algorithmen …der Versuch einer Einordnung
Advertisements

Neuronale Netze & Genetische Algorithmen
Präsentiert von Torben Pastuch
Perceptrons and the perceptron learning rule
Der k-d-Baum Richard Göbel.
Zerlegung von Graphen.
7. Natürliche Binärbäume
Kapitel 6. Suchverfahren
R. Der - Vorlesung Algorithmen und Datenstrukturen (Magister)
Genetische Algorithmen für die Variogrammanpassung
Neuronale Netze Von Kay-Patrick Wittbold.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik 1 Algorithm. Grundlagen des Internets 24. Juni 2002 Christian Schindelhauer.
Einführung Übersicht Einsatz der Zielwertsuche Einsatz des Solvers
Genetische Algorithmen
Genetische Algorithmen
Sortierverfahren Richard Göbel.
FH-Hof Optimierungsverfahren für kombinatorische Probleme Richard Göbel.
Algorithmentheorie 04 –Hashing
Algorithmentheorie 6 – Greedy-Verfahren
WS Algorithmentheorie 05 - Treaps Prof. Dr. Th. Ottmann.
WS 06/07 Algorithmentheorie 01 - Einleitung Prof. Dr. Th. Ottmann Tobias Lauer.
Genetische Algorithmen
Die moderne Evolutionstheorie
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Algorithmen und Komplexität
Minimum Spanning Tree: MST
Beispielrelation Buchbestellungen H = Menge der bedeutenden Ziele = {a, d} Schwelle T = 4 Stichprobe S = {a, b, a, a, a, a} mit s = |S| = 6 N = Anzahl.
Neuronale Netze Romy Kuttner, Franco Haberland.
Wismar Business School
The Emergence of a Language in an Evolving Population of Neural Networks Angelo Cangelosi, Domenico Parisi.
Neuronale Netze (Mitchell Kap. 4)
Machine Learning KNN und andere (Kap. 8).
Maschinelles Lernen und automatische Textklassifikation
Neuronale Netze 2 (Mitchell Kap. 4)
Machine Learning Decision Trees (2).
Machine Learning Was wir alles nicht behandelt haben.
Maschinelles Lernen und automatische Textklassifikation
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Variationsformalismus für das freie Teilchen
Christian Schulz, Marc Thielbeer, Sebastian Boldt
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Adaptive Systeme-2 Grundlagen
Evolutionäre Algorithmen AS1-7
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Neuronale Netze Nachtrag Perzeptron
Einführung in die Informatik für Naturwissenschaftler und Ingenieure
Fundamente der Computational Intelligence (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich Informatik Lehrstuhl für Algorithm Engineering Wintersemester.
Einführung in die Programmierung Wintersemester 2013/14 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Christian Schindelhauer Wintersemester 2006/07 6. Vorlesung
Das Traveling Salesman Problem (TSP)
Evolutionäre Algorithmen AS1-7
Statistik – Regression - Korrelation
Analyse der Laufzeit von Algorithmen
ANN - Simulator Rainer Trummer Ferdinand Schober Christian Spielberger.
Korrektheit von Programmen – Testen
Evolutionärer Entwurf neuronaler Netze
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Evolutionäre Algorithmen Rüdiger Brause
Institut für Informationssysteme Technische Universität Braunschweig Institut für Informationssysteme Technische Universität Braunschweig Verdrängung von.
Design und Optimierung optischer Systeme durch Neuronale Netze und Genetische Algorithmen.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
 Präsentation transkript:

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Andere Paradigmen Inhalt dieses Kapitels 8.1 Induktive Logik-Programmierung 8.2 Genetische Algorithmen 8.3 Neuronale Netze

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Induktive Logik-Programmierung Einführung [Muggleton & De Raedt 1994] Gegeben: Menge von Fakten in einer prädikatenlogischen Sprache 1. Stufe Gesucht: prädikatenlogische Regeln 1. Stufe, die in der Faktenmenge gelten Methode: Suche im Raum aller möglichen Regeln Abgrenzung zu Assoziationsregeln dort: Regeln der Form P(x) Q(x) R(x) hier: z.B. Regeln der Form Kurs(x) Hyperlink(x, y) Professor(y) oder X Y Z P(x,y) P(x, z) Q(y, z) komplexe Regeln mit mehreren Variablen

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Induktive Logik-Programmierung Einführung Zusammenhang mit relationalen Datenbanken n-stelliges Prädikat P Relation P mit Attributen A 1 bis A n Tupel (x 1,..., x n ) genau dann in P enthalten, wenn das Fakt P(x 1,..., x n ) gilt Ausdruckskraft der Regelsprache Zusammenhänge zwischen verschiedenen Relationen einer Datenbank Integration von vorhandenem Hintergrundwissen (Domain Knowledge) Formulierung von Hintergrundwissen ebenfalls in Prädikatenlogik 1. Stufe

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Induktive Logik-Programmierung Methode Initialisierung einer Menge von Hypothesen Generierung weiterer Hypothesen aus den vorhandenen durch Anwendung von induktiven Inferenzregeln Regeln zur Ableitung neuer aus bekannten Hypothesen z.B. Spezialisierung und Generalisierung

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Induktive Logik-Programmierung Methode Initialisiere eine Menge von Hypothesen QH; repeat Wähle eine Hypothese H QH und lösche sie aus QH; Wähle Inferenzregeln r 1,..., r k aus der Menge der gegebenen Inferenzregeln; Wende die Inferenzregeln r 1,..., r k auf H an, um neue Hypothesen H 1,..., H k abzuleiten; Füge H 1,..., H k zu QH hinzu; Filtere aus der Menge QH ungültige oder uninteressante Hypothesen wieder heraus; until Stopkriterium(QH) erfüllt

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Induktive Logik-Programmierung Diskussion hohe Ausdruckskraft der Regeln z.B. für Temporal Data Mining oder Web Mining einfache Integration von Hintergrundwissen Ineffizienz Suchraum sehr groß Ansätze zur Verbesserung der Effizienz Vorgabe von Regelschemata ähnliche Monotonie-Bedingung wie für Frequent Itemsets

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Genetische Algorithmen Grundlagen [Bäck 1996] allgemeines Suchverfahren basierend auf dem Prinzip der biologischen Evolution Individuum: potentielle Lösung eines Problems Chromosom: Codierung eines Individuums durch einen (typischerweise binären) String Gen: zusammenhängender Teilstring eines Chromosoms

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Genetische Algorithmen Grundlagen Suchmechanismus: Reproduktion von Individuen und Auswahl der besten zwei verschiedene Arten der Reproduktion: –Kombination von ausgewählten Individuen –zufällige Veränderung (Mutation) eines existierenden Individuums Auswahl der besten Individuen (Selektion) Zielfunktion: Chromosomen Fitness-Werte Fitness: Maß für die Qualität einer Lösung Anwendung der Fitness Wahrscheinlichkeit, daß ein Individuum sich reproduziert endgültige Auswahl der besten Lösung

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Genetische Algorithmen Beispiel Data-Mining-Problem: Suche nach besonders häufigen Attribut-Wert-Paaren Gen: Attribut-Wert-Paar Chromosom: Konjunktion von Attribut-Wert-Paaren Kombination: Mischen der Attribut-Wert-Paare zweier Chromosomen Mutation: zufällige Veränderung eines Attributwertes Fitness-Wert: Häufigkeit, mit der diese Konjunktion der Attribut-Werte-Paare in der Datenmenge auftritt

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Genetische Algorithmen Methode Initialisiere eine Population von Individuen; while (Stopkriterium ist nicht erfüllt) do Wähle Individuen gemäß ihrer Fitness als Eltern aus; Kombiniere Eltern, um neue Individuen zu erzeugen; Mutiere die neuen Individuen; Füge die neuen Individuen zur Population hinzu; return beste Individuen;

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Genetische Algorithmen Diskussion besser als zufällige / erschöpfende Suche maximale Fitness in einer Population wächst monoton im Laufe der Generationen im allgemeinen nicht sehr effizient langsame Konvergenz Einsatz sinnvoll wenn keine intelligente, problemspezifische Suchtstrategie bekannt Qualität einer Gesamtlösung = Summe der Qualitäten der Teillösungen

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Grundlagen [Bigus 1996], [Bishop 1995] Paradigma für ein Maschinen- und Berechnungsmodell Funktionsweise ähnlich der von biologischen Gehirnen Neuronales Netz: Menge von Neuronen, über Kanten miteinander verbunden Neuron: entspricht biologischem Neuron Aktivierung durch Input-Signale an den Synapsen Erzeugung eines Output-Signals, das zu anderen Neuronen weitergeleitet wird Organisation eines neuronalen Netzes Input-Schicht, verborgene Schichten, Output-Schicht Knoten einer Schicht mit allen Knoten der vorhergehenden Schicht verbunden

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Grundlagen Kanten besitzen Gewichte Funktion eines neuronalen Netzes Output-Vektor y w ij Output-Schicht verborgene Schicht Input-Schicht Input-Vektor x

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Neuronen allgemeines Neuron a: Aktivierungswert Threshold Logic Unit (TLU)... x1x1 x2x2 xnxn w1w1 w2w2 wnwn a... x1x1 x2x2 xnxn w1w1 w2w2 wnwn a

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Neuronen Klassifikation mit Hilfe einer TLU repräsentiert eine (Hyper-)Ebene links von der Ebene: Klasse 0 rechts von der Ebene: Klasse 1 Trainieren einer TLU Lernen der richtigen Gewichte zur Unterscheidung der zwei Klassen Iterative Anpassung der Gewichte w ij Rotation der durch w und gegebene Hyperebene um einen kleinen Betrag in Richtung v, wenn v noch nicht auf der richtigen Seite der Ebene liegt x1x1 x2x2

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Kombination mehrerer Neuronen zwei Klassen, die nicht linear separierbar sind: zwei innere Knoten und ein Output-Knoten Beispiel y h 1 h 2 A A A A A A A A A B B B B A B B A A A A A A B B

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Lernalgorithmus für komplexe Neuronale Netze bei Abweichung von vorhergesagter und tatsächlicher Klasse: Anpassung der Gewichte mehrerer Knoten Frage in welchem Maße sind die verschiedenen Knoten an dem Fehler beteiligt? Anpassung der Gewichte durch Gradientenverfahren, das den Gesamtfehler minimiert Gesamtfehler: Summe der (quadratischen) Abweichungen des tatsächlichen Outputs y vom gewünschten Output t für die Menge der Inputvektoren Voraussetzung: Output y stetige Funktion der Aktivierung a

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Algorithmus Backpropagation f ü r jedes Paar(v,t) // v = Input,t = gewünschter Output forward pass: Bestimme den tatsächlichen Output y für Eingabe v; backpropagation: Bestimme den Fehler (t y) der Output-Einheiten und passe die Gewichte der Output-Einheiten in die Richtung an, die den Fehler minimiert; Solange der Input-Layer nicht erreicht ist: Propagiere den Fehler auf die nächste Schicht und passe auch dort die Gewichte der Einheiten in fehlerminimierender Weise an;

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Design der Netztopologie Bestimmung von –Anzahl der Input-Knoten –Anzahl der inneren Schichten und jeweilige Anzahl der Knoten –Anzahl der Output-Knoten starker Einfluß auf die Klassifikationsgüte zu wenige Knoten niedrige Klassifikationsgüte zu viele Knoten Overfitting

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Bestimmung der Netztopologie [SPSS Clementine 2000] Statische Topologie Topologie wird apriori festgelegt eine verborgene Schicht reicht in vielen Anwendungen aus Dynamische Topologie dynamisches Hinzufügen von Neuronen (und verborgenen Schichten) solange Klassifikationsgüte signifikant verbessert wird Multiple Topologien Trainieren mehrer dynamischer Netze parallel z.B. je ein Netz mit 1, 2 und 3 verborgenen Schichten

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Bestimmung der Netztopologie Pruning Trainieren eines Netzes mit statischer Topologie nachträgliches Entfernen der unwichtigsten Neuronen solange Klassifikationsgüte verbessert wird Schlußfolgerung statische Topologie: niedrige Klassifikationsgüte, aber relativ schnell Pruning: beste Klassifikationsgüte, aber sehr hoher Laufzeitaufwand zum Training

Vorlesung KDD, Ludwig-Maximilians-Universität München, WS 2000/ Neuronale Netze Diskussion + im allgemeinen sehr hohe Klassifikationsgüte beliebig komplexe Entscheidungsflächen + robust gegen Rauschen in den Trainingsdaten + Effizienz der Anwendung - schlechte Verständlichkeit lernt nur Gewichte, aber keine Klassenbeschreibung - Ineffizienz des Lernens sehr lange Trainingszeiten - keine Integration von Hintergrundwissen