Adaptive lineare Transformationen AS-1

Slides:



Advertisements
Ähnliche Präsentationen
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Advertisements

Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Filterung der räumlichen Frequenzen
Software-Engineering II Eingebettete Systeme, Softwarequalität, Projektmanagement Prof. Dr. Holger Schlingloff Institut für Informatik der Humboldt.
Übersicht zu Verfahren des Soft Computing
Seminar „Extrapolationsmethoden für zufällige Felder“
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
ISWeb - Information Systems & Semantic Web Marcin Grzegorzek 5.3 Karhunen-Loeve-Transformation Minimalität und Orthogonalität innerhalb.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik 1 Algorithm. Grundlagen des Internets 24. Juni 2002 Christian Schindelhauer.
1 JIM-Studie 2010 Jugend, Information, (Multi-)Media Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
= = = = 47 = 47 = 48 = =
Adaptive Systeme Prof. Rüdiger Brause WS 2009.
Konkurrentes Lernen AS-1
Adaptive lineare Transformationen AS-2
Bilder und Rasterdaten
Technische Informatik I (SS 2006) 1 Teil 5: Embedded Systems 5c: DSPs (Digitale Signal Prozessoren)
Rechneraufbau & Rechnerstrukturen, Folie 2.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 2.
Grundkurs Theoretische Informatik, Folie 2.1 © 2006 G. Vossen,K.-U. Witt Grundkurs Theoretische Informatik Kapitel 2 Gottfried Vossen Kurt-Ulrich Witt.
© 2006 W. Oberschelp, G. Vossen Rechneraufbau & Rechnerstrukturen, Folie 4.1.
Mh9S178Nr2 Biquadratische Gleichungen
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil2.
Bewegte Bezugssysteme
Astronomisch, Physikalische und Mathematische Geodäsie II
Globaler Ansatz Hough-Transformation
AC Analyse.
Studienverlauf im Ausländerstudium
Bildtransformationen
Rechneraufbau & Rechnerstrukturen, Folie 12.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 12.
20:00.
Self Organizing Tree Algorithm
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Sensitivitätsanalyse
BILDFORMATE von Margarita Isjurowa.
Lernen und Klassifizieren AS2-2
Adaptive lineare Transformationen AS-1
Adaptive Systeme Prof. Rüdiger Brause WS 2013.
Adaptive lineare Transformationen AS2-3 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS Lineare Schichten Sequenz linearer Schichten.
Adaptive lineare Transformationen AS1-3
Radiale Basis-funktionen AS1-5
Adaptive Systeme-2 Grundlagen
Adaptive Systeme-2 Prof. Rüdiger Brause WS 2011 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags Uhr, SR9 Übungen.
Evolutionäre Algorithmen AS1-7
Adaptive lineare Transformationen AS-2
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/

STATISIK LV Nr.: 0028 SS Mai 2005.
Statistik: Mehr zur Regression.
Analyse von Ablaufdiagrammen
Vorlesung Mai 2000 Konstruktion des Voronoi-Diagramms II
Managemententscheidungsunterstützungssysteme (Ausgewählte Methoden und Fallstudien) ( Die Thesen zur Vorlesung 3) Thema der Vorlesung Lösung der linearen.
Großer Altersunterschied bei Paaren fällt nicht auf!
MINDREADER Ein magisch - interaktives Erlebnis mit ENZO PAOLO
Determinanten und Cramer‘sche Regel
Radiale Basis-funktionen
1 (C)2006, Hermann Knoll, HTW Chur, FHO Quadratische Reste Definitionen: Quadratischer Rest Quadratwurzel Anwendungen.
Multivariate Statistische Verfahren
Gefügeanalyse und Rheologie Proseminar WS 2004/05 Do – Teil 8.
Klassifikation und Regression mittels neuronaler Netze
1 Mathematical Programming Nichtlineare Programmierung.
Technische Frage Technische Frage Bitte löse die folgende Gleichung:
Evolutionäre Algorithmen AS1-7
1 Computergestützte Verifikation Binary Decision Diagrams (BDD) Inhalt: Die Datenstruktur BDD Operationen auf BDD CTL Model.
1 Medienpädagogischer Forschungsverbund Südwest KIM-Studie 2014 Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
Institut für Informationssysteme Technische Universität Braunschweig Institut für Informationssysteme Technische Universität Braunschweig Verdrängung von.
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
Nicht-negative Matrix Faktorisierung (nMF) Seminar „Sparse Coding“ Autor: Christian Sier.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
 Präsentation transkript:

Adaptive lineare Transformationen AS-1

M Z B A y x(1) Lineare Schichten Sequenz linearer Schichten y(1) = A x(1) y(2) = B x(2) ... y(n) = Z x(n) M Z B A y x(1)  y(n) = ZBAx(1) y(n) = M x(1) Sequenz linearer Schichten = wie nur 1 Schicht ! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Unendliches Wachstum ?? Hebb‘sches Lernen Dw = wi(t)-wi(t-1) = i(t) yix Iterative Hebb'sche Lernregel DW = W(t)-W(t-1) = (t) yxT W = W(1) + W(2) + W(3) + … Problem: ex. kein „Vergessen“, w   Unendliches Wachstum ?? Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Hebb‘sches Lernen - Ergänzungen Lösung : Normierung der Gewichte w(t) = w(t-1) + (t) yx mit |w(t)| = 1 Wie? (t) = (t-1) + (t) yx w(t) = ____= (t-1) + (t) yx | | | | Wohin konvergiert w(t) ? Rechnung  Eigenvektoren der Autokorrelationsmatrix Cxx:= xxT ! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

PCA-Transformation Transform Coding PCA-Netze Weissen ICA-Transformation Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Principal Component Analysis PCA Zerlegung in orthogonale Eigenvektoren = Basisvektoren „Hauptkomponentenanalyse“, „principal component analysis“, „Karhunen-Loéve-Entwicklung“, „Hotelling-Transformation“,... Eigenvektoren – Wozu? e 2 Merkmals-transformation auf Hauptrichtungen e 1 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Principal Component Analysis PCA Transformation auf Unkorreliertheit  (x1-x1)(x2- x2)  = 0 Unkorrreliertheit von x1,x2 Beispiel Rauschfrei korrelierte Daten x = (x1,x2) mit x2 = ax1 Rechnung: EV, EW = ? Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transformation mit minimalem MSE Beispiel: Sprachkodierung Signalanteil in Frequenzbereichen Fouriertranformation Zeit x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 Filter 1 Filter 6 Filter 7 Filter 8 Filter 9 Filter 10 Filter 2 Filter 3 Filter 4 Filter 5 x(t) Merkmalsvektor Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transformation mit minimalem MSE Beispiel: Sprachkodierung Transformation (Rotation) des Koordinatensystems auf Hauptachsen Vernachlässigung der Anteile des 2. Kanals: Ersatz des zweiten Kanals durch ersten x1 x2 e1 e2 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transformation mit minimalem MSE Allgemeine Situation l i n . T r a n s f o r m a t i o n { y } x . . 1 1 . y · X y W x · m Y . m+1 · . x n Y n R(W) = min (x- )2 least mean squared error (LMSE) Wann minimal ? Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transformation mit minimalem MSE Minimaler Rekonstruktionsfehler R(W) = min (x- )2 least mean squared error (LMSE) x = + = + yi = xTwi Was ist die beste Schätzung für die Konstanten ci? min R(ci) = ? Rechnung! Bei welchen Basisvektoren wi ist der Fehler minimal ? min R(wi) = ? Rechnung! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transform Coding PCA-Transformation PCA-Netze Weissen ICA-Transformation Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transform coding – Wozu? Verlustfreie Kodierung: Max  1:2 (Zip). Unnötig bei Telekommunikation (z.B. Bildtelefon) Satellitenübertragung (z.B. Wettersatelliten etc.) Bilddatenbanken (z.B. Umweltdaten, Medizindaten, Industrieteile, Teleshopping etc.) Digitale Musik (MP3) Hochauflösendes Fernsehen (HDTV) Allgemein: Multi-Media Daten (MPEG 7) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Konzept Transform Coding Kodierung und Dekodierung K o d i e r u n g Ü b e r t r a g u n g , D e k o d i e r u n g S p e i c h e r u n g y ^ n x x · n n · · y · m + 1 · · y y m · · · · m · · · · · · · · · · · x y y ^ 1 x 1 1 1 V e k t o r - c o d e b o o k l i n . T r a n s f o r m a t i o n l i n . T r a n s f o r m a t i o n q u a n t i s i e r u n g o o k u p Klassenprototypen Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Aufteilung in Unterblöcke Kodierung und Dekodierung JPEG, MPEG Blockgröße: 8x8 Pixel SW 16x16 Pixel Farbe x 1 2 . n · Y y m Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transform Coding e1 e2 e3 e4 e5 e6 e7 e8 Kodierung: 256x256 Pixel, 8 Bit Grauwert, 32x32 Unterbilder, je 8x8=64 Pixel, 8 Neuronen. Kompression = ? und Dekodierung: e1 e2 e3 e4 e5 e6 e7 e8 Kodierung in 0,36 Bits/Pixel statt 8 = Kompression mit Faktor 22 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Eigenschaften natürlicher Bilder Fehler beim Vernachlässigen höh. Komponenten n = 256256 = 65536 Komponenten Bildmodellierung durch Pixelkorrelationen Cxx(x-x`) = Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Eigenvektoren und Eigenfunktionen Min. Fehler  Eigenvektoren. Und im kontin. Fall? K o m p n e t i d x 1 2 3 4 5 6 7 8 w B a s f u k j ( ) wi = (i) Eigenvektor w = diskretisierte Eigenfunktion (w) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

kont. Eigenwertgleichung Aw = w C(x1,x2,x1',x2') (x1',x2') dx1' dx2' = 12(x1,x2) Separierbare Korrelationen C(x1,x2,x1',x2') = C(x1,x1') C(x2,x2')  Separierbare Basisfunktionen (x1,x2) = (x1)(x2), 12 = 12  Zwei 1-dimensionale Differentialgleichungen ``(x) + (2–2)(x) = 0 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transform Coding e1 e2 e3 e4 e5 e6 e7 e8 Lösungen: Eigenfunktionen mit Eigenfrequenzen biN/2 i(x) = a cos(bi(x-N/2)) mit i= wobei bi tan(biN/2) =1 11(x) 12(x) e1 e2 e3 e4 N=8,α=0,125, ß=0,249 e5 e6 e7 e8 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Beispiel: Bildkodierung Eigenfunktion coding vs. Kosinustransformation (JPEG) Eigenfunktion 1-dim Eigenfunktionen bei abfall. Korrelation Kosinus i(x) = a cos(bi(x-N/2)) EF für Parameter a,b ~ mittl. Bild identisch mit cos → bildunabh. Kodierung 1 2 3 4 5 6 7 8 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

PCA-Netze PCA-Transformation Transform Coding Weissen ICA-Transformation Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Oja-Lernregel w(t) = w(t-1) + (t) y [x(t)  w(t-1)y] Oja Lernregel EINE Lernregel für Hebb-Lernen und Gewichtsnormierung Hebb-Regel w(t) = w(t-1) + (t) yx Normierung wi(t)  Einsetzen 1. in 2. w(t-1) + (t) yx [i(wi(t-1)+xiy)2]1/2 und f() in einer Taylorreihe nach  entwickeln. Terme mit 2 vernachlässigen ergibt w(t) = w(t-1) + (t) y [x(t)  w(t-1)y] Oja Lernregel xneu Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

PCA Netze für den Unterraum Oja-Netz w(t) = w(t-1) + (t) y [x(t)  w(t-1)y] Oja Lernregel wi(t) = wi(t-1) + (t) yi[x(t)  x] x = wi(t-1)yi x 1 n · Y y m Ansatz: Zielfunktion R(w) = (x- )2 minimieren Konvergenzziel: Unterraum der EV mit größtem EW Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

PCA Netze für geordnete Zerlegung Sanger-Methode Sanger 1988 Vollständige Zerlegung von {x} in n Eigenvektoren (Gram-Schmidt) {x}0 = {x}, i=1 Suche die Richtung größter Varianz in {x}i-1. Dies ist ei. Ziehe diese Richtung (Dimension) von {x}i-1 ab. Wir erhalten {x}i . Wenn i<n, setze i := i+1, gehe zu 1. Diskret für stochastisches x, w: Sanger-Netz X x 1 m - W ® e M · Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

PCA Netze für geordnete Zerlegung Sanger-Methode: stochastischer Algorithmus Lernen: wi(t) = wi(t–1) + (t) yixi "Generalisierte" Hebb-Regel Musterreduktion Stufe 1 x2 := x1 - w1(t–1)y1 x2  x1 !!  Stufe k xk+1 := xk + awk(t–1)yk und x1 := x, a := –1, k = 1..i–1 Lernen Stufe k  wk+1(t) = wk(t–1) + (t) yk(xk +a ) Es ergibt sich eine allgemeine Oja-Regel. Bei a=-1 beginnt die Reihenfolge bei dem Eigenvektor mit dem grössten Eigenwert, bei a=+1 mit dem kleinsten. a = –1 max EW, a = +1 min EW Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Weissen PCA-Transformation Transform Coding PCA-Netze ICA-Transformation Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Problem Lösung Störung Whitening Filter Störung von Signalen durch Rauschen Lösung Kodierung: Verstärkung zu geringer Amplituden Dekodierung: Absenkung der Amplituden spektrale Energie |Y|2 Frequenz f spektrale Energie |Y|2 Störung Rauschen Rauschen Frequenz f Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

~ x x W W-1 Whitening Filter Rauschen inverse Transformation Shannon: Whitening für alle Frequenzen, d.h. alle diskreten Signalbänder Übertragung auf parallele Signale yi : gleiche Varianz aller durch Transformation W. Anhebung zu geringer Amplituden: Wähle W so, daß = 1 bei i = j, und =0 sonst; also áyyTñ = I Absenkung der Amplituden: durch inverse Matrix W-1 Rauschen x x ~ inverse Transformation W-1 Transformation W Kodierung Transmission Dekodierung Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Beispiel: Bildentstörung gestörtes Bild ungestörtes Bild Bild mit Rausch-unterdrückung Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Beispiel: Bildentstörung Bildkodierung Zerteilen in Blöcke, jeder Block = Mustervektor Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Rauschunterdrückung Problem: Vollständige Rekonstruktion ungestört stark gestört gering gestört stark gestört gering gestört ungestört Zu sehen ist der Fehler bei der Zahl von Rekonstruktions-Komponenten. Paradox: Wenn Rauschen vorliegt, machen wenige Komponenten ein besseres Bild als viele! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

PCA-Transformation Transform Coding PCA-Netze Weissen ICA-Transformation Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Sprecher 1 Mikro 1 Sprecher 2 Mikro 2 Einleitung Lineare Mischung unabhängiger Quellen Sprecher 1 Sprecher 2 Mikro 1 Mikro 2 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

M W Lineares ICA-Modell Quellenmix Entmischung Ziel: W M-1 y s sn y1 y2 yn x1 x2 xn M W Ziel: W M-1 y s mit p(y) = p(y1,..,yn) = p(y1)..p(yn) unabhängige Kanäle Unabhängigkeit notwendig zur Quellentrennung. Yelling,Weinstein (1994): auch hinreichend! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

mixed sources demixed sources ICA Anwendung: Audioanalyse 2 Sprecher Coctail-Party-Effekt 2 Sprecher mixed sources demixed sources Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

 si := 1 ICA-Einschränkungen Quellenzahl = Mischzahl M muß regulär sein  nur dann ex. M-1 Ausgabereihenfolge unbestimmt Reihenfolge in p(y1)..p(yn) ist unwichtig => M-1 bis auf Permutation P bestimmbar: M-1 -> M-1 P Unbekannte Skalierung  si := 1 2 Gaußsche Quellen lassen sich nicht trennen  max 1 Gaußsche Quelle Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

DEF Information I ~ n = ld(2n) = ld (Zahl der möglichen Daten) I ~ ld(1/P) [Bit] DEF I(X) := ln(1/P(xk)) = – ln(P(xk)) Information DEF H(X) := k P(xk)I(xk) = I(xk)k Entropie H(X) := p(x) ln p(x)-1dx differenzielle Entropie Frage: Wieviel Information hat eine 32-bit floating-point Zahl? Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Transinformation DEF Transinformation - 1 - DEF Transinformation DEF H(X,Y) = H(X) + H(Y) – I(X;Y) Verbundentropie DEF I(X;Y) = H(X) + H(Y) – H(X,Y) Transinformation Transformation H(X) H(Y) x 1 · y Transinformation Rauschen Redundanz n Die Verbundentropie ist H(X,Y) = H(X) + H(Y) – I(X;Y), was auf die Verbundwahrscheinlichkeiten zurückzuführen ist. Dabei verringert sich die Entropie (Unbestimmtheit) um den Informationsanteil, der übertragen wird. Die Transinformation kann als eine spezielle Informationsdivergenz (oder Kullback-Leibler Abstand) gesehen werden; hierbei ist q(X,Y) = q(X)q(Y). D(p(X)||q(X)) = Hsub(X) – Hobj(X) allg. Informationsdivergenz = = D(p(X,Y)||q(X,Y)) = ? Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

ICA - Algorithmen 1 Ziel: minimale Transinformation zwischen den Ausgaben yi x = Kanäle, stoch. Variablen Transinformation I(x1;x2) = H(x1) + H(x2) – H(x1,x2) minimal bei I(x1;x2) = 0 bzw. maximaler Entropie H(x1,x2) = H(x1) + H(x2) bzw. p(x1,x2) = p(x1)p(x2) stochastische Unabhängigkeit der Variablen - W(t+1) = W(t) – I(y1;y2;..;yn) Gradientenabstieg (Amari, Young, Cichocki 1996) Entwicklung von p(y1,y2,..,yn) in I(y1;y2;..;yn) nach höheren Momenten W(t+1) = W(t) – (1-f(y)yT)W(t) mit fi(yi) = Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

Statist. Momente und Kurtosis Momente einer Zufallsvariablen x : ai= x i, z.B. a1 = x Mittelwert Zentrale Momente einer Zufallsvariablen x: mk= (x-a1)k, z.B. m2 = (x-a1)2 Varianz Wölbungsmaß Kurtosis: kurt(x) = [(x-a1)4 -3m22]/m22 Supergaussian: Kurtosis > 0 Gaussian: Kurtosis = 0 Subgaussian: Kurtosis < 0 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

ICA-Algorithmen: Vorverarbeitungsfolge sn x1 x2 xn x-áxñ y1 y2 yn B Quellenmix zentrieren weißen entmischen W áxñ=0 (x-áxñ)2=1 Zentrieren Mittelwertbildung, z.B. iterativ durch w0(t+1) = w0(t) - g (w0-x), g =1/t Weißen PCA durchführen: wi Eigenvektoren von C = xxT mit |wi|=1 und Eigenwerten li Gewichtsvektoren wi normieren zu wi/li1/2. Dies führt zu y2 = wiTxxTwi = wiTliwi = 1 Entmischen ICA Algorithmen, z.B. minimale Transinformation, maximale Kurtosis etc. Speziell: dekorrelierte x benötigen nur eine orthogonale Matrix W (Vereinfachung) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

M W Matrix Z ICA – Algorithmen 2 Ziel: extremale Kurtosis (Delfosse, Loubaton 1995) Extrema bei sj = unabh. Komp, und zj = +/-1 kurt (y) = kurt (wTv) = kurt(wTMs) = kurt (zTs) = M s1 s2 sn v1 v2 vn y1 y2 yn Quellenmix zentrieren weißen entmischen W áviñ=0 (vi-áviñ)2=1 Matrix Z Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

w1(t+1) = á(w1Tv)3vñ – 3 w1 mit |w1| = 1 ICA – Algorithmen 2 Sequentielle Extraktion aller Komponenten Gegeben: Trainingsmenge {v(0)} Fixpunktalgorithmus w1(t+1) = á(w1Tv)3vñ – 3 w1 mit |w1| = 1 Konvergenz zum 1. ICA-Vektor. (Hyvarinen, Oja 1996) Dann neue Trainingsmenge durch v(1) = v(0) – w1y1 w2(t+1) = á(w2Tv)3vñ – 3 w2 mit |w2| = 1 Konvergenz zum 2. ICA-Vektor, usw. Orthogonalisierung erspart aber auch die neue TRainingsmenge! Schnellere Konvergenz: Orthogonalisierung wi(t+1) = wi(t) - (wi wj) wj j < i Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

ICA-Anwendungen: Bildprimitive Zerteilung von Naturbildern in 12x12 Unterbilder = 144 Kanäle = 1 Sample Unabhängige Komponenten Alternative Analyseverfahren Bell, Sejnowski (Vision Research 1996) Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

ICA Anwendung: Bildentmischung 4 Bilder, sequentiell gerastert = 4 Quellen (Hyvarinen, Oja 1996) 4 Bilder 4 Kanäle 4 Mischbilder 4x4 Misch-matrix A Automatische Entmischung ? Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

ICA Anwendung: Bildentmischung 4 Bilder, sequentiell gerastert = 4 Quellen (Hyvärinen, Oja 1996) Mischbilder entmischte Bilder Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

ICA-EEG-Filterung Korrigierte EEG-Aufnahmen ohne 5 ICA-Muskelaktivitäten, Mischung Also: ICA ist geeignet, um EEG-Artefakte zu unterdrücken. Kann man dadurch die „Ursachen“, die „Quellen der Gedanken“ entdecken ? Dies könnte man meinen, aber .... Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009

ICA-EEG-Analyse Entmischte EEG-Aufnahmen: unabhängige Zentren, z.B. Muskelaktivität Augenbewegungen R-L Augenbewegungen oben-unten Muskelaktivität 1 Muskeln 2 Muskeln 3 Jung, Humphries, Lee, Makeig, McKeown, Iragui, Sejnowski 1998 Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2009