Nichtlineare Fisher-Diskriminanzanalyse

Slides:



Advertisements
Ähnliche Präsentationen
Präsentiert von Torben Pastuch
Advertisements

Fast Fourier Transformation
Perceptrons and the perceptron learning rule
Implementierung eines BPSK (De)Modulators auf einem Spartan 3E FPGA
On the Criteria to Be Used in Decomposing Systems into Modules
A Model of Saliency-Based Visual Attention for Rapid Scene Analysis
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Faltung Entfaltung Bestimmung der (unbekannten) Funktion f aus den (bekannten) Funktionen h und g. Bezeichnung h(x) … Messdaten f(y) … Physikalisches Profil.
Verifizieren versus Berechnen
Standortfaktoren INTERN - Ausdrucksstark präsentieren.
Der Einstieg in das Programmieren
Forschungsstatistik II
Geometrisches Divide and Conquer
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 2.1.
Rechneraufbau & Rechnerstrukturen, Folie 3.1 © 2006 W. Oberschelp, G. Vossen.
Vorlesung: 1 Betriebssysteme 2007 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebssysteme Hochverfügbarkeit (Einführung) 3. Quartal.
Anwendungsseminar: Kausale Modellbildung
Institut für Kartographie und Geoinformation Diskrete Mathematik I Vorlesung Bäume-
Das Cranking Modell Drehungen senkrecht zur Symmetrieachse
1Ausgewählte Themen des analogen Schaltungsentwurfs AC Analyse eines Verstärkers mit RK T TFF Aol2 Aol1.
Wir suchen ‘ mit m = m    ‘ c  ‘ mod 26
Datenmanagement in Sensornetzen PRESTO - Feedback gesteuertes Datenmanagement - SS 2007 Sören Wenzlaff.
Inhalte und Maßnahmen eingegeben haben,
Nachholung der Vorlesung vom Freitag
Univariate Statistik M. Kresken.
Ralf KüstersDagstuhl 2008/11/30 2 Ralf KüstersDagstuhl 2008/11/30 3.
Machine Learning Was wir alles nicht behandelt haben.
Vielstoffthermodynamik
Vielstoffthermodynamik
Bild 1.1 Copyright © Alfred Mertins | Signaltheorie, 2. Auflage Vieweg+Teubner PLUS Zusatzmaterialien Vieweg+Teubner Verlag | Wiesbaden.
Schulentwicklung Volksschule / HS / NMS …. basierend auf dem Zahnradmodell der Bewegten Schule Stand: Sept
Daten auswerten Boxplots
Self Organizing Tree Algorithm
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
...ich seh´es kommen !.
Generalisierung/Spezialisierung Subtypisierung/Vererbung
Polynome und schnelle Fourier-Transformation
Kennwerte und Boxplots
Telecooperation/RBG Technische Universität Darmstadt Copyrighted material; for TUD student use only Grundlagen der Informatik I Thema 16: Ausnahmebehandlung.
Präsentation läuft auch vollautomatisch ab … wie du möchtest
Auslegung eines Vorschubantriebes
Lineare Algebra, Teil 2 Abbildungen

STATISIK LV Nr.: 0028 SS Mai 2005.
Statistik: Mehr zur Regression.
1 DMS EXPO 2009 Keynote Angst und Gier Dr. Ulrich Kampffmeyer PROJECT CONSULT Unternehmensberatung Dr. Ulrich Kampffmeyer GmbH Breitenfelder Straße 17.
i) Projektil in Ladungsverteilung des Kerns eindringt
Managemententscheidungsunterstützungssysteme (Ausgewählte Methoden und Fallstudien) ( Die Thesen zur Vorlesung 3) Thema der Vorlesung Lösung der linearen.
Schulentwicklung Volksschule / HS / NMS …. basierend auf dem Zahnradmodell der Bewegten Schule Stand: Sept
Radiale Basis-funktionen
Analyseprodukte numerischer Modelle
2014 Januar 2014 So Mo Di Mi Do Fr Sa So
Pigmentierte Läsionen der Haut
FRÜHLING.
Schutzvermerk nach DIN 34 beachten 20/05/14 Seite 1 Grundlagen XSoft Lösung :Logische Grundschaltung IEC-Grundlagen und logische Verknüpfungen.
Vortrag von Rechtsanwältin Verena Nedden, Fachanwältin für Steuerrecht zur Veranstaltung Wege zum bedingungslosen Grundeinkommen der Piratenpartei Rhein-Hessen.
Klassifikation und Regression mittels neuronaler Netze
1 Mathematical Programming Nichtlineare Programmierung.
Arne Vater Wintersemester 2006/ Vorlesung
Schulentwicklung Volksschule / HS / NMS …. basierend auf dem Zahnradmodell der Bewegten Schule Stand: Sept
Der Erotik Kalender 2005.
Familie Beutner, Konrad-Voelckerstrasse, Edenkoben/Pfalz, Tel:
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
Geoinformationssysteme
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
 Präsentation transkript:

Nichtlineare Fisher-Diskriminanzanalyse Raphael Hoffmann Praktikumsbericht Projektbetreuung durch Dr. Bernhard Sick Universität Passau

Inhalt Motivation Lineare Fisher-Diskriminanzanalyse Nichtlineare Fisher-Diskriminanzanalyse Implementierung Experimente Zusammenfassung 1 2 3 4 5 6

Inhalt Motivation Lineare Fisher-Diskriminanzanalyse Nichtlineare Fisher-Diskriminanzanalyse Implementierung Experimente Zusammenfassung 1 2 3 4 5 6

Beispiel I I F Merkmalsreduktion Klassifikation Motivation Männer (blau) Frauen (rot) Gewicht F Merkmalsreduktion Klassifikation Größe

Klassifikation mit Diskriminanzanalyse Motivation Klassifikation mit Diskriminanzanalyse I F w db Vorgehensweise: Finde Gerade durch den Ursprung, so dass Klassen auf Gerade gut getrennt sind Finde Decision Boundary db auf Gerade g: w ¢ x = 0

Alternative Klassifikationsverfahren Motivation Alternative Klassifikationsverfahren I w Perzeptron-Lernen Lösung eines linearen Ausgleichsproblems Support Vector Machines

Inhalt Motivation Lineare Fisher-Diskriminanzanalyse Nichtlineare Fisher-Diskriminanzanalyse Implementierung Experimente Zusammenfassung 1 2 3 4 5 6

Fisher-Kriterium Lineare Fisher-Diskriminanzanalyse Menge der Vektoren der Klasse i Mittelwert der Vektoren der Klasse i Mittelwert aller Vektoren maximiere Streuung zwischen den Klassen (erklärte Streuung) Streuung innerhalb der Klassen (unerklärte Streuung)

Inhalt Motivation Lineare Fisher-Diskriminanzanalyse Nichtlineare Fisher-Diskriminanzanalyse Implementierung Experimente Zusammenfassung 1 2 3 4 5 6

Beispiel II I Nichtlineare Fisher-Diskriminanzanalyse krank (blau) gesund (rot) Temperatur Blutdruck

Architektur-Übersicht Nichtlineare Fisher-Diskriminanzanalyse Architektur-Übersicht Nichtlineare Transformation Lineare Fisher- Diskriminanz- analyse Eingabe- raum Ausgabe- Raum Raum I H F Beispiel

MLP-basierte Architektur (MLP-NLDA) Nichtlineare Fisher-Diskriminanzanalyse MLP-basierte Architektur (MLP-NLDA) Bias Bias Ausgabe- Raum Eingabe- raum F lineare Aktivierung I sigmoide Aktivierung Nichtlineare Transformation Lineare Fisher- Diskriminanzanalyse

RBF-basierte Architektur (RBF-NLDA) Nichtlineare Fisher-Diskriminanzanalyse RBF-basierte Architektur (RBF-NLDA) Bias Ausgabe- Raum Eingabe- raum F I lineare Aktivierung Radiale Basisfunktionen- Aktivierung Nichtlineare Transformation Linear Fisher- Diskriminanzanalyse

Kern-basierte Architektur (Kern-NLDA) Nichtlineare Fisher-Diskriminanzanalyse Kern-basierte Architektur (Kern-NLDA) Nichtlineare Transformation Lineare Fisher- Diskriminanzanalyse  Eingabe- raum Ausgabe- Raum Raum H I F Kernfunktion berechnet Skalarprodukt in einem anderen Raum Keine explizite Anwendung von notwendig  : I £ I ! R 

Inhalt Motivation Lineare Fisher-Diskriminanzanalyse Nichtlineare Fisher-Diskriminanzanalyse Implementierung Experimente Zusammenfassung 1 2 3 4 5 6

Implementierung im NNSIM Verschränkt: Berechnung des Fisher-Kriteriums und Gradientenabstieg 3. Anpassung der Gewichte nach Gradientenaufstieg 1. Setzen der Gewichte nach Fisher-Kriterium 2. Berechnung der Gradienten des Fisher-Kriteriums nach Gewichten 1. Setzen der Gewichte nach Fisher-Kriterium

Inhalt Motivation Lineare Fisher-Diskriminanzanalyse Nichtlineare Fisher-Diskriminanzanalyse Implementierung Experimente Zusammenfassung 1 2 3 4 5 6

Experimente Experiment I Wie gut eignen sich die Verfahren zur Nichtlinearen Diskriminanzanalyse zur Klassifikation?

Vergleich von Klassifikationsraten auf Standarddatensätzen Experimente Vergleich von Klassifikationsraten auf Standarddatensätzen Fehlerraten des Cancer3-Datensatzes trainingerror test error MLP RBF SVM 0.0049 0.0052 0.0240 0.0281 0.0229 0.0402 MLP-NLDA RBF-NLDA Kern-NLDA 0.0200 0.0178 0.0191 0.0167 0.0000 0.0286

Experimente Experiment II Wie sollte man eine lineare Separierung im Ausgaberaum bestimmen?

Lineare Separierung im Ausgabe-Raum Experimente Lineare Separierung im Ausgabe-Raum Beispiele ? F F ? Mögliche Kriterien: Euklidischer Abstand zu Klassenzentren Maximum A Posteriori (MAP) Klassifizierung durch lineare SVM

Lineare Separierung im Ausgabe-Raum Experimente Lineare Separierung im Ausgabe-Raum trainingerror test error Euklidisch MAP SVM 0.0311 0.0244 0.0293 0.0201 0.0306 0.0229 MAP erlaubt Berücksichtigung eines prior Anmerkung: Durchschnittswerte für Cancer1, Cancer2, Cancer3

Experimente Experiment III Wie robust verhält sich Nichtlineare Diskriminanzanalyse bei unterschiedlichen Klassenstärken?

Robustheit bei unterschiedlichen Klassenstärken Experimente Robustheit bei unterschiedlichen Klassenstärken Exponential- Verteilung (blau) Normal- Verteilung (rot) Synthetische Daten mit hoher Überlappung Variation der Klassenstärke der Exp.-Vert.

Robustheit bei unterschiedlichen Klassenstärken Experimente Robustheit bei unterschiedlichen Klassenstärken Analytische Ermittlung der Fehlerrate Gleiche Berücksichtigung beider Klassen Exp-gr. 10000 5000 2500 1000 100 MLP 0.2547 0.2829 0.3428 0.4080 0.4510 MLP-NLDA 0.2526 0.2734 0.3142 0.3392 0.4169 Anmerkungen: MLP mit target coding (0,...,0,1,0,...0) MLP-NLDA mit MAP-Separierung und nicht-uniformen prior

Klassifikation bei unterschiedlichen Klassenstärken Experimente Klassifikation bei unterschiedlichen Klassenstärken Anpassungen des MLP-NLDA: MAP nimmt uniformen prior an Modifizierung der unerklärten Streuung max. Division durch Klassengröße

Robustheit bei unterschiedlichen Klassenstärken Experimente Robustheit bei unterschiedlichen Klassenstärken Exp-gr. 10000 5000 2500 1000 100 MLP 0.2547 0.2829 0.3428 0.4080 0.4510 Prior: Klassenstärke unerklärte Streuung: normal MLP-NLDA1 0.2526 0.2734 0.3142 0.3392 0.4169 Prior: uniform unerklärte Streuung: normal MLP-NLDA2 0.2531 0.2551 0.2706 0.2876 0.3275 Prior: uniform unerklärte Streuung: modifiziert MLP-NLDA3 0.2524 0.2522 0.2533 0.2516 0.2563

Robustheit bei unterschiedlichen Klassenstärken Experimente Robustheit bei unterschiedlichen Klassenstärken MLP MLP-NLDA1 Prior: Klassenstärken Unerklärte Streuung: normal MLP-NLDA2 Prior: uniform Unerklärte Streuung: normal MLP-NLDA3 Prior: uniform Unerklärte Streuung: modifiziert

Inhalt Motivation Lineare Fisher-Diskriminanzanalyse Nichtlineare Fisher-Diskriminanzanalyse Implementierung Experimente Zusammenfassung 1 2 3 4 5 6

Zusammenfassung Diskriminanzanalyse liefert Abbildung in einen niedriger dimensionalen Raum; diskriminierende Eigenschaften bleiben erhalten. Nichtlineare Diskriminanzanalyse wird erreicht durch Kombination einer nichtl. Transformation u. linearer Diskriminanza. Vorteil von Diskriminanzanalyse bei Klassifikationsaufgaben: Robustheit bei unterschiedlichen Klassengrößen

Vielen Dank für Ihre Aufmerksamkeit Ende Vielen Dank für Ihre Aufmerksamkeit Literatur: Carlos Santa Cruz und Jose R. Dorronsoro. A nonlinear discriminant algorithm for feature extraction and data classification. IEEE Transactions on Neural Networks, 9:1370-1376, 1998