PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.

Slides:



Advertisements
Ähnliche Präsentationen
Fast Fourier Transformation
Advertisements

Schnelle Matrizenoperationen von Christian Büttner
13. Transformationen mit Matrizen
11. Matrizen. 11. Matrizen Eine mn-Matrix ist ein Raster aus mn Koeffizienten, die in m Zeilen und n Spalten angeordnet sind. = (aij)1  i  m, 1.
Modellierung und Schätzung von Variogrammen
Seminar Stochastik im WS 02/03
Seminar „Extrapolationsmethoden für zufällige Felder“
Multi-Media Seminar von Andre Münch
ISWeb - Information Systems & Semantic Web Marcin Grzegorzek 5.3 Karhunen-Loeve-Transformation Minimalität und Orthogonalität innerhalb.
Grundlagen der Geometrie
Seminarthema 4 Numerische Methoden der Eigenwertberechnung Von: Robert Schirmer Matnr.: Betreuer: Prof.Dr Eiermann.
Adaptive lineare Transformationen AS-2
Lösung von linearen Gleichungssystemen - Grundlagen
Gliederung Der Begriff der Stichprobe, Stichprobenfehler
Gliederung Tabellarische und grafische Darstellung von Rohwerten mittels Histogramme und Polygone Statistische Kennwertbeschreibung mittels Tendenz- und.
Gliederung Allgemeine Arten von Zusammenhängen Kovarianzen
Seminar Lehrevaluation
Lösung linearer Gleichungssysteme
Produktform der Inversen 1
Eigenwerttechniken Matrixalgebra 7.2 Hauptkomponentenanalyse
Uebung 03 Netzdateien.
ISWeb - Information Systems & Semantic Web Marcin Grzegorzek 6 Distanzfunktionen 6.1 Eigenschaften und Klassifikation 6.2 Distanzfunktionen.
ISWeb - Information Systems & Semantic Web Marcin Grzegorzek 5.4 Latent Semantic Indexing und Singulärwertzerlegung Zerlegung von.
Konzentrationsmaße (Gini-Koeffizient, Lorenz-Kurve) Konzentrationsmaße Kennwert für die wirtschaftliche Konzentration Typische Beispiele: Verteilung des.
Datenmatrix. Datentabelle für 2 Merkmale Kontingenztafel der absoluten Häufigkeiten.
Datenmatrix.
Korrelationskoeffizient nach Bravais-Pearson Eigenschaften X und Y unabhängig.
Datentabelle für 2 Merkmale
Folie 1 § 30 Erste Anwendungen (30.2) Rangberechnung: Zur Rangberechnung wird man häufig die elementaren Umformungen verwenden. (30.1) Cramersche Regel:
Tutorium
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Matrix-Algebra Grundlagen 1. Matrizen und Vektoren
Wie Google Webseiten bewertet
Muster zum Erstellen einer Abfrage mit der interaktiven Datenbank
Lineare Algebra Komplizierte technologische Abläufe können übersichtlich mit Matrizen dargestellt werden. Prof. Dr. E. Larek
Zeit: 13h-15h Datum: Raum: IFW B42
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
§20 Der Rang einer Matrix Jede (m,n)-Matrix kann auch als ein n-Tupel von Spaltenvektoren geschrieben werden: wobei (20.1) Definition:
Einführung in die Matrizenrechnung
Polynome und schnelle Fourier-Transformation

STATISIK LV Nr.: 0028 SS Mai 2005.
Multivariate Statistische Verfahren
Multivariate Statistische Verfahren
Multivariate Statistische Verfahren
Klassifikation und Regression mittels neuronaler Netze
Scaffold 29S: Komplexe Zahlen
Statistik – Regression - Korrelation
Hauptseminar: Digitale Medien
Gesichtsdetektion in digitalen Einzelbilder
Wichtige Transformationen
The PicSOM Retrieval System 1 Christian Steinberg.
2.5.2 Multivariate Monte Carlo-Simulation
6. Thema: Arbeiten mit Feldern
Graphische Datenverarbeitung
Version vom Max-Flow in Orientierten Matroiden Winfried Hochstättler & Robert Nickel Fernuniversität in Hagen Lehrstuhl für Diskrete Mathematik.
Binärbäume.
Geoinformationssysteme
Matrizen, Eigenschwingungen zeitunabhängige Schrödingergleichung
EIN NEUES ENSEMBLE- KLASSIFIKATIONSVERFAHREN Tim Schneider Rotation Forest.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
Rechen- und Kommunikationszentrum (RZ) Selektionsstrategien auf Graphstrukturen Sven Porsche Seminarvorträge Aachen.
Nicht-negative Matrix Faktorisierung (nMF) Seminar „Sparse Coding“ Autor: Christian Sier.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Ausgleich nach der Methode der kleinsten Quadrate
Varianzfortpflanzung
LernBar LU 16: Zehn hoch.
 Präsentation transkript:

PCA Principal Component Analysis

Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung

PCA – Warum eigentlich ? Zusammenhang zwischen den Spalten ?

PCA – Warum eigentlich ? Zusammenhang zwischen den Spalten ?

PCA – Warum eigentlich ? Musterfindung in hochdimensionalen Datensätzen schwierig Ziel PCA: Zerlegung von Eingabedaten, in Muster aus denen allen Eingaben bestehen z.B. Bilder, die in allen Bildern vorkommen Entsprechende Gewichte Möglichst kleiner Fehler

Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung

PCA – Was ist zu tun? 1. Daten sammeln 2. Mittelwerte berechnen 3. Kovarianz-Matrix berechnen 4. Eigenwerte und Eigenvektoren berechnen 5. Auswählen der Eigenvektoren 6. Umwanden der Daten

2. Mittelwerte PCA geht von Mittelwert freien Daten aus  Kovarianz Mittelwert: Daten Mittelwert frei machen

3. Kovarianz-Matrix Kovarianz, X und Y haben n Elemente Kovarianz für einen Datensatz mit m Dimensionen

3. Kovarianz-Matrix

4. Eigenwerte und Eigenvektoren Berechnung später Eigenvektoren sind normiert und orthogonal

4. Eigenwerte und Eigenvektoren

5. Auswählen der Eigenvektoren Auswählen welche Vektoren für neue Basis verwendet werden sollen Je größer der Eigenwert ist, desto mehr Information sind im entsprechenden Eigenvektor enthalten Kleine Eigenwerte enthalten meist Rauschen

5. Auswählen der Eigenvektoren Schreiben der verwendeten Eigenvektoren als Spalten in eine Matrix

6. Umwanden der Daten Umwandeln der Daten durch eine Matrixmultiplikation: Neue Daten = Eigenvektoren T ∙ Daten T Daten in Spalten, Dimension in Zeilen  Neue Daten zum besseren Arbeiten auch transponieren  Zeilen und Spalten vertauschen

6. Umwanden der Daten (Daten gerundet)

6. Umwanden der Daten

Daten zurückbekommen Mit Inversen multiplizieren  Zurückdrehen Da Eigenvektoren orthonormal sind Inverse = Transponierte Mittelwerte wieder addieren Alten Daten‘ = Eigenvektoren ∙ Neue Daten T + Mittelwert

Daten zurückbekommen

Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung

Was passiert eigentlich? Mittelwert, Varianz, Kovarianz Kovarianzmatrix und Eigenschaften Eigenwert, Eigenvektor Was passiert bei Multiplikation mit den ausgewählten Eigenvektoren

Mittelwert, Varianz, Kovarianz Mittelwert: Varianz Maß für Abweichung vom Mittelwert Kovarianz Maß für Ähnlichkeit zwischen zwei Datensätzen

Kovarianzmatrix Symmetrisch  alle Eigenwerte sind reell Positiv Semidefinit  alle Eigenwerte ≥ 0

Eigenwert, Eigenvektor A:n×n Matrix, λ ein Skalar Ax= λx(x nicht trivial) λ hei ß t Eigenwert von A x hei ß t Eigenvektor von A zum Eigenwert λ

Eigenwert, Eigenvektor Warum nimmt man eigentlich die Eigenvektoren? Wollen optimale Merkmalsdarstellung durch Transformation  Erhalten diese Art der Transformation Diese Transformation ist optimal bzgl. dem Quadrat des Abstandes

Eigenwert, Eigenvektor

Eigenwerte fallen sehr schnell ab Darstellen der Daten ohne großen Verlust mit wenigen Werten möglich  Sparse Coding

Eigenwert, Eigenvektor Berechnung über charakteristisches Polynom  det(λI-A)=0  Matrixentwicklung Berechung über Zerlegung  A=QDQ T  Stabiles numerisches Iterationsverfahren Berechnung des größten Eigenwertes  Zurückführen des Problems auf sich selbst Mathe Bibliothek

Multiplikation Transformation der Daten in eine Basis aus Eigenvektoren des Merkmalsvektors Eigenbasis ist orthogonal und normiert Transformation entspricht einer Drehung

Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung

Eigenfaces Mittel zur Objekterkennung Über Datenbank neue Basis erstellen Eingabe in neue Basis transformieren  Starke Dimensionsreduktion Ähnlichkeit der Merkmale zu schon vorhandenen, transformierten Bildern

Eigenfaces - Eingabebilder

Eigenfaces

Kompression Kompression von Bildern

Kompression Kompression von Bildfolgen

Rauschelemination Entfernen von Rauschen durch Aufnahmeprozess Mehrere Bilder aufnehmen PCA „richtiges“ Bild in den ersten paar Komponenten

Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung

PCA kann benutzt werden um Muster in hochdimensionalen Datensätzen zu finden Berechnung auch über Hebb‘sches Lernen möglich  Neuronales Netz Nachteile: die Komponenten sind nicht nur positiv Eigenwertfindung nicht ohne weiteres Speicherintensiv