EIN NEUES ENSEMBLE- KLASSIFIKATIONSVERFAHREN Tim Schneider Rotation Forest.

Slides:



Advertisements
Ähnliche Präsentationen
Animierte Slideshow zur Anwendung dieses (Selbst-) Evaluationsinstruments Hierin können Sie sich mit den Schnittstellen und verschiedenen Funktionen der.
Advertisements

Fast Fourier Transformation
Definition [1]: Sei S eine endliche Menge und sei p eine Abbildung von S in die positiven reellen Zahlen Für einen Teilmenge ES von S sei p definiert.
Maschinelles Lernen   Metriken für Nearest Neighbour-Verfahren Lineare Diskriminanzfunktionen.
Schnelle Matrizenoperationen von Christian Büttner
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
Statistische Suche nach melodischen Prototypen
Maschinelles Lernen   Präsenzübung.
5. Sortier-Algorithmen Vorbemerkungen:
Genetische Algorithmen für die Variogrammanpassung
Kollisionen erkennen Kollisions- und Schnittpunkttests auf Dreieckbasis Kollisions- und Schnittpunkttests auf Viereckbasis Einsatz von achsenausgerichteten.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken IX Christian Schindelhauer
Genetische Algorithmen
Genetische Algorithmen
Sortierverfahren Richard Göbel.
Sortierverfahren Richard Göbel.
Algorithmentheorie 04 –Hashing
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (23 – Sortieren vorsortierter Daten) Prof. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (19 - Analyse natürlicher Bäume) Prof. Th. Ottmann.
Sortieren vorsortierter Daten
Konfidenzintervalle für Parameter
Projekt A4: Alignment of Situation Models Gert Rickheit Sven Wachsmuth Constanze Vorwerg Agnes Swadzba SFB-Kolloqium,
Intelligentes Crawling im WWW mit Hilfe intuitiver Suchbedingungen
Classification of Credit Applicants Using Data Mining. Thema.
Kennlinie Lichtregelung in JavaNNS Version 1.1
und relative Häufigkeit Bettina delert, andreas mertke
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Bayes‘sche Verfahren (Mitchell Kap. 6), Teil 1
Machine Learning Decision Trees (2).
Machine Learning Was wir alles nicht behandelt haben.
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Kakuro Regeln und Strategien
Daten auswerten Boxplots
Christian Schulz, Marc Thielbeer, Sebastian Boldt
Effiziente Algorithmen
Einführung in die Programmierung
Abschlussvortrag zur Studienarbeit
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Neuronale Netze Nachtrag Perzeptron
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Einführung in die Programmierung Wintersemester 2009/10 Prof. Dr. Günter Rudolph Lehrstuhl für Algorithm Engineering Fakultät für Informatik TU Dortmund.
Einführung in die Informatik für Naturwissenschaftler und Ingenieure (alias Einführung in die Programmierung) (Vorlesung) Prof. Dr. Günter Rudolph Fachbereich.
Prädiktion und Klassifikation mit Random Forest
1 Nutzen Sie diese Powerpoint-Präsentation beim Selbstlernen oder in Veranstaltungen zur Einführung in das jeweilige Thema. Einführung Lernmodul Nutzungsbedingungen:
Using latent semantic analysis to find different names for the same entity in free text Präsentation und Diskussion des Papers Im Rahmen des PS Web-Information.
Statistische Methoden in der Wirtschafts- und Sozialgeographie
Klassifikation und Regression mittels neuronaler Netze
Examen IB Geschichte.
Vortrag Relative Orientierung
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Geostatistik Kriging Sarah Böckmann.
CL Tree MW 31.1 Business Intelligence Wintersemester 2015 / 2016 Stanislav Prokupetz.
Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Thomas FoberWeiwei ChengEyke Hüllermeier AG.
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
EVALUIERUNG VON BILDERKENNUNGSALGORITHME N IN HINBLICK AUF NUTZBARKEIT IN DER FLASH ENTWICKLUNG GEHALTEN VON: DENNIS SABELLECK.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
 Präsentation transkript:

EIN NEUES ENSEMBLE- KLASSIFIKATIONSVERFAHREN Tim Schneider Rotation Forest

EINLEITUNG 1  Warum ein Ensemble-Klassifikator?  um Vorhersagen von mehreren Klassifikatoren zu kombinieren anstelle eines einzelnen Klassifikators  Motivation  Verringerung der Varianz:  um weniger abhängig von Besonderheiten einer einzelnen Trainingsmenge zu sein  Reduzierung des Bias:  lerne eine aussagekräftige Klasse anstatt eines einzigen Klassifikators  Ansatz  Ensembles werden aus verschiedenen Klassifikatoren aus einer Trainingsmenge gebildet  Leistungsbeurteilung nach Vielfalt und Genauigkeit  Beste Methode ⇒ AdaBoost ⇒ große Vielfalt, aber Genauigkeitsverlust Neuer Ansatz ⇒ Rotation Forest ⇒ soll beides erreichen Bagging (Random Forest) Boosting (AdaBoost)

ROTATION FOREST  stützt sich beim Klassifizieren auf die Idee des Entscheidungsbaums  Basis-Klassifikator ist ein Entscheidungsbaum  reagieren empfindlich auf die Rotation der Parameterachsen. ⇒ Wald (Forest)  nutzt zur Reduzierung der Parameter die PCA  Daten werden mittels PCA transformiert  Durch eine Drehung der Parameterachsen werden jeweils neue Merkmale für den Basis-Klassifikator erstellt  fördert gleichzeitig eine individuelle Genauigkeit und eine Vielfalt innerhalb des Ensembles 2

IDEE Erstellung der Trainingsdaten wie folgt: 1.Merkmale zufällig in K-Teilmengen aufteilen 2.PCA auf jede Teilmenge anwenden 3.Alle Hauptkomponenten sind erforderlich, damit die Variabilität an Informationen in den Daten erhalten bleibt. 3

METHODE (1) 4 X: Alle Objekte in den Trainingsdaten x = [x 1, x 2, …, x n ] T Objekt mit n-Merkmalen N×n Matrix Y = [y 1, y 2, …, y N ] T : Klassenbeschriftung der Trainingsdaten (N×1 Matrix)

METHODE (2) Gegeben  L: die Zahl der Klassifikatoren in dem Ensemble (D 1, D 2,..., D L )  F: Merkmalsraum  X, Y 5

METHODE (3) - TRAININGSPHASE Um für den Klassifikator D i einen Trainingsdatensatz zu konstruieren: 1.splitte F zufällig in K-Teilmengen: F i,j 6 F: Merkmalsraum F i,1 F i,2 F i,3 … F i,K K-Teilmengen (F i,j für j=1…K) jede hat M = n/K-Merkmale (n stammt aus N×n Matrix)

METHODE (4) - TRAININGSPHASE 2.  Für jede Teilmenge F i,j  sei X i,j der Datensatz X für die Merkmale in F i,j  wähle nach dem Zufallsprinzip eine nichtleere Teilmenge an Klassen aus X i,j  wähle aus X i,j eine Bootstrap- Stichprobe von 75% der Anzahl der Objekte ⇒ es entsteht X’ i,j  führe auf X’ i,j eine PCA durch und speichere die Koeffizienten in einer Matrix 7 F 1,1 F 1,2 F 1,3 … F 1,K X 1,1 : Teilmenge X für die Merkmale in F 1,1 Wähle zufällig eine Teilmenge an Klassen aus X 1,1 Wähle eine Bootstrap- Stichprobe von 75% aus der Anzahl der Objekte aus X 1,1 um X’ 1,1 zu erhalten. Führe mit X’ 1,1 und M-Merkmalen eine PCA durch, um die Koeffizienten zu erhalten.

METHODE (5) - TRAININGSPHASE 3.  Ordne die erhaltenen Koeffizienten in einer Rotationsmatrix R i  Um den Trainingsdatensatz für den Klassifikator D i zu berechnen,  ordne die Spalten von R i so neu an, dass sie den ursprünglichen Merkmalen aus F entsprechen und bezeichne sie mit R i a  bezeichne den Trainingsdatensatz für den Klassifikator D i mit ⇒ XR i a  Erstelle den Klassifikator D i unter Verwendung von ( XR i a, Y) als Trainingsdatensatz. 8

METHODE (6) - KLASSIFIKATIONSPHASE  Um ein gegebenes Objekt x zu klassifizieren, sei d i,j (xR i a ) die Wahrscheinlichkeit, dass der Klassifikator D i annimmt, x stammt aus der Klasse  Berechne das durchschnittliche Vertrauen für jede Klasse über alle Klassifikatoren mit:  Klassifiziere x in die Klasse mit dem größten Vertrauen 9 Satz von Klassenbeschreibungen

METHODE (6) Warum wird eine Bootstrap-Stichprobe sowie eine Zufallsauswahl der Klassen in Schritt 2 durchgeführt?  man möchte voneinander verschiedene Klassifikatoren in einem Ensemble haben Beispiel: Die Möglichkeit, komplett verschiedene Klassifikatoren für ein Ensemble von L = 50, für K = 3 und n = 9 zu erhalten, ist kleiner als

LEISTUNGSBEURTEILUNG Vielfalt  entsteht durch Merkmalsextraktion für jeden Basis-Klassifikator.  Jeder Entscheidungsbaum verwendet einen unterschiedlichen Satz an Merkmalen. Genauigkeit  Keine Hauptkomponenten werden verworfen.  Trotz der eingefügten Randomisierung des Datensatzes wird der ganze Datensatz transformiert und anschließend für die Ausbildung des Basis-Klassifikators genutzt (mit unterschiedlich extrahierten Merkmalen). 11

ERGEBNISSE EINES EXPERIMENTS  Vergleich von Rotation Forest, Bagging, AdaBoost und Random Forest  Verwendung von WEKA  Datensatz: UCI Machine Learning Repository (33 Datensätze)  Experimenteinstellungen:  Bagging, AdaBoost und Random Forest mit Standardwerten in WEKA  Random Forest M = 3  Alle Ensemble-Methoden haben das gleiche L = 10  Basis-Klassifikator: Decision-Tree J48 in WEKA 12

ERGEBNISSE EINES EXPERIMENTS 13

ERGEBNISSE EINES EXPERIMENTS % 24,24 % 3,03% 69,70% 3,03% % X-Achse: Ensemblegröße L Y-Achse: Prozentsatz der Datensätze mit den geringsten Fehlern unter den vier Verfahren Diagramm für die 4 Ensemble- Methoden mit ungestutzten J48 Bäumen %

FAZIT  Rotation Forest Ensembles erstellen individuelle Klassifikatoren die genauer als jene in AdaBoost und Random Forest und vielfältiger und manchmal auch genauer als jene in Bagging sind. 15

QUELLEN     16