Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.

Slides:



Advertisements
Ähnliche Präsentationen
Grundlagen der Wahrscheinlichkeitsrechnung - Verteilungen -
Advertisements

Masterstudiengang IE (Industrial Engineering)
Modellierung und Schätzung von Variogrammen
ISWeb - Information Systems & Semantic Web Marcin Grzegorzek 5.3 Karhunen-Loeve-Transformation Minimalität und Orthogonalität innerhalb.
Stochastik in der Sek. II Sabrina Schultze.
Adaptive lineare Transformationen AS-2
Gliederung Definition des Wahrscheinlichkeitsbegriffes
Gliederung Tabellarische und grafische Darstellung von Rohwerten mittels Histogramme und Polygone Statistische Kennwertbeschreibung mittels Tendenz- und.
Heute Prüfung der Produkt-Moment Korrelation
Portfoliomodelle Faktormodelle
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
K. Desch - Statistik und Datenanalyse SS05
K. Desch - Statistik und Datenanalyse SS05
Strukturgleichungsmodelle
Statistische Methoden I
Nachholung der Vorlesung vom Freitag
Konfidenzintervalle Intervallschätzung
Ab nächster Woche wird die Übungsgruppe Gruppe 2: Henrike Berg Di SR 222 wegen Personalmangel eingestellt.
Statistische Methoden II SS 2008 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Makarenkostraße (Kiste)
M-L-Schätzer Erwartungswert
Bitte mein Manuskript (liegt im Bibliotheksgebäude aus) nicht nach Außerhalb tragen. Die Weitergabe an Dritte (d. h. an Personen, die nicht Hörer der Vorlesung.
Die Student- oder t-Verteilung
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Statistische Methoden I SS 2005
Kolmogorov-Smirnov-Test. A. N. Kolmogorov Geboren in Tambov, Russland. Begründer der modernen Wahrscheinlichkeitstheorie.
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird auf Montag, den 17. Mai verlegt! Zeit: 16 Uhr Ort: Kiste Nächste Woche!!!!
Statistische Methoden II SS 2003 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Erwartungswert und Varianz I Der endliche Fall Erwartungswert Varianz.
Statistische Methoden I WS 2009/2010 Probeklausur Montag, 25. Januar statt Vorlesung -
Statistische Methoden I WS 2004/2005 Probeklausur Freitag, 21. Januar statt Vorlesung - In 2 Wochen In 2 Wochen!
Test auf Normalverteilung
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Tutorium
Vorlesung: Biometrie für Studierende der Veterinärmedizin
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Binomialverteilung: Beispiel
Vorlesung: ANOVA I
Eigenschaften der OLS-Schätzer
Ausgleichungsrechnung I
Ausgleichungsrechnung II
Ausgleichungsrechnung I
Regionalisierte Variablen und Kriging
Adaptive lineare Transformationen AS2-3 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS Lineare Schichten Sequenz linearer Schichten.
Adaptive lineare Transformationen AS-2
Die Poisson-Verteilung: Mittelwert und Standardabweichung
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0028 SS Mai 2005.
STATISIK LV Nr.: 0021 WS 2005/ Oktober 2005.
Kapitel 10 Multikollinearität
Kapitel 4 Annahmen des linearen Regressionsmodells
STATISIK LV Nr.: 0021 WS 2005/ November 2005.
Regression und Kollokation
5.6 Zwei- und mehrdimensionale Zufallsvariablen
Multivariate Statistische Verfahren
Data Mining Georg Pölzlbauer.
Forschungsmethodik II, SS 2010 Vesna Pavlovski & Julia Pichlhöfer
Klassifikation und Regression mittels neuronaler Netze
Statistik – Regression - Korrelation
Einführung zur Fehlerrechnung
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig
2.5.2 Multivariate Monte Carlo-Simulation
K. Desch - Statistik und Datenanalyse SS05 1 Zusammenfassung 2. Vorlesung (22.4.) Schiefe (Skewness): Maß für die Asymmetrie der Verteilung um den Mittelwert.
K. Desch - Statistik und Datenanalyse SS05
Der Wiener Prozess und seltene Ereignisse
Deskriptive Statistik, Korrelationen, Mittelwertvergleiche, Graphiken
Geoinformationssysteme
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
Varianzfortpflanzung
 Präsentation transkript:

Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau

Übersicht Was ist ICA? BSS an einem praktischen Beispiel Stochastische Grundlagen Ein ICA Beispiel Anwendungen (EEG, Features natürlicher Bilder)

Was ist ICA? Ein Verfahren, um Daten so zu transformieren, dass die Ergebnisse statistisch unabhängig sind. Ein Werkzeug zur Featureextraktion und Blind Source Separation (BSS) Definition: Seien x 1 … x n gewichtete Summen von n unabhängigen Komponenten x j = a j1 s 1 + a j2 s 2 + … + a jn s n

Blind Source Separation Ursprungssignale s 1 (t) und s 2 (t)

Blind Source Separation gemischte Signale x 1 (t) und x 2 (t)

Blind Source Separation durch ICA rekonstruierte Signale

Stochastische Grundlagen Stochastische Unabhängigkeit Bestimmte statistische Ereignisse haben nichts miteinander zu tun. Sei X=(X 1,...,X n ) ein Zufallsvektor mit Wahrscheinlichkeitsdichtefunktion f X (x 1,...,x n ) Seine Komponenten sind dann unabhängig, wenn die Dichte gleich dem Produkt der Einzelwahrscheinlichkeiten ist. f X (x 1,...,x n ) = f X 1 (x 1 ) *... * f X n (x n )

Stochastische Grundlagen Die Varianz ist ein Maß für die Abweichung einer Zufallsvariable von ihrem Erwartungswert: var(X) Die Kovarianz ist die Streuung zweier Zufallsvariablen um deren Erwartungswert unter Berücksichtigung der jeweils anderen: cov(X,Y)

Stochastische Grundlagen Die Kovarianzmatrix dient der sinnvollen Veranschaulichung der Kovarianzen. Die Kovarianzmatrix für eine dreidimensionale Datenmenge mit den Dimensionen X, Y und Z

Stochastische Grundlagen Zusammenhang zwischen Kovarianz und Unabhängigkeit Ist die Kovarianz zweier Zufallsvariablen X und Y Null, so sind sie unkorreliert bzw. nicht voneinander abhängig. Zentraler Grenzwertsatz Die Summe von vielen unabhängigen Zufallsvariablen kommt der Normalverteilung näher als die Zufallsvariablen selbst.

Ein ICA Beispiel Annahme zweier unabhängiger Komponenten s 1 und s 2 : Die Erwartungswerte der Komponenten ergeben sich zu Null, die Varianzen zu Eins.

Ein ICA Beispiel Die gemeinsame Verteilung der unabhängigen Zufallsvariablen ergibt ein Quadrat

Ein ICA Beispiel Mischen der Komponenten durch Annahme einer Kovarianzmatrix A Die gemischten Variablen x 1 und x 2 sind nicht mehr unabhängig.

Ein ICA Beispiel Zwei abhängige Zufallsvariablen

ICA Vorarbeiten 1. Eingabedaten zentrieren (Mittelwert m = E{x} subtrahieren) 2. Whitening Lineare Transformation des zentrierten Eingabevektors, sodass dessen Komponenten unkorreliert und deren Varianzen auf den Wert 1 normiert sind Eigenwertzerlegung der Kovarianzmatrix C=EDE T E: orthogonale Matrix der Eigenvektoren D: Diagonalmatrix der Eigenwerte Neue Mischungsmatrix durch Whitening: x whitening = ED -1/2 E T As = A whitening s

ICA Vorarbeiten Durch Whitening entzerrte Daten

Verfahren zur Maximierung der Nicht-Gaußähnlichkeit 1. Kurtosis maximieren 2. Negentropie maximieren 3. Information Maximisation (Infomax) durch das Lernen in neuronalen Netzen

1. Kurtosis maximieren Kurtosis ist ein Maß, um die Ähnlichkeit einer Verteilung zur Normalverteilung festzustellen. kurt(Y) = E{Y 4 } – 3(E{Y 2 }) 2 Kurtosis ist Null für eine normalverteilte Variable, andernfalls ungleich Null. Maximierung der Kurtosis mittels eines Gradientenverfahrens

2. Negentropie maximieren; Entropie Entropie ist ein Maß für die Zufälligkeit. Je „zufälliger“ eine Variable ist, desto größer ist ihre Entropie. Gemeinsame Entropie

2. Negentropie maximieren; Transinformation Gibt an, wie viel Information zwei Signalen gemeinsam ist, bzw. wie abhängig voneinander zwei Zufallsvariablen sind. T(X,Y) = H(X) + H(Y) – H(X,Y)

2. Negentropie maximieren; Negentropie Eine normalverteilte Zufallsvariable weist die größte Entropie unter allen Zufallsvariablen mit gleicher Varianz auf. J(x) = H(Y gauss ) – H(Y) Y gauss ist eine normalverteilte Zufallsvariable mit der gleichen Kovarianzmatrix wie Y. Negentropie ist sehr schwer zu berechnen.

3. Information Maximisation Neuronales Netz mit zwei Eingabesignalen s 1, s 2 und zwei Ausgaben x 1, x 2. Minimieren der gemeinsamen Informationen T(x 1,x 2 ) durch Maximieren der gemeinsamen Entropie H(x 1,x 2 ). H(x 1,x 2 ) = H(x 1 ) + H(x 2 ) - T(x 1,x 2 ) Lernen einer nichtlinearen Funktion, so dass eine möglichst optimale Maximierung erfolgt mittels eines Gradientenabstiegsverfahrens.

Ein ICA Beispiel Zwei abhängige Zufallsvariablen, deren Verteilung der Normalverteilung ähnelt.

Ein ICA Beispiel Zwei unabhängige Zufallsvariablen, deren Verteilung stark von der Normalverteilung abweicht

Anwendungen: Elektroencephalogramm EEG-Daten sind ein Maß für elektrische Felder im Gehirn. Elektroden am Kopf erhalten ein Mischsignal aus verschiedenen Körperregionen. Meist interessieren nur Daten des Gehirns.

Anwendungen: EEG

Anwendungen: Features natürlicher Bilder Experiment: Aus 20 Graustufen-Bildern (384x256 Pixel) wurden zufällig x16 Pixel große Bildausschnitte gewählt. ICA angewendet auf die Bildausschnitte ergab eine Mischungsmatrix A, deren Spalten a i visualisiert folgende Bilder lieferten:

Anwendungen: Features natürlicher Bilder Basisvektoren (entsprechen einer Spalte der Mischungsmatrix A, berechnet durch ICA)

Anwendungen: Features natürlicher Bilder Einzelne Bildausschnitte können durch Kombination von Basisvektoren berechnet werden. Für Sparse Coding müssen viele s i Null sein. Durch ICA werden die s i so statistisch unabhängig wie möglich.

Ergebnisse: ICA und rezeptive Felder Basisvektoren weisen große Ähnlichkeit zu rezeptiven Feldern im primären visuellen Kortex auf. Neuronen sind wahrscheinlich auf die Verarbeitung natürlicher Bilder spezialisiert und führen ein Art Independent Component Analysis durch, um Redundanzen zu vermeiden.