Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Eigenwerttechniken 7 7.1 Matrixalgebra 7.2 Hauptkomponentenanalyse 7.3 Kanonische Korrelationsanalyse.

Ähnliche Präsentationen


Präsentation zum Thema: "Eigenwerttechniken 7 7.1 Matrixalgebra 7.2 Hauptkomponentenanalyse 7.3 Kanonische Korrelationsanalyse."—  Präsentation transkript:

1 Eigenwerttechniken Matrixalgebra 7.2 Hauptkomponentenanalyse 7.3 Kanonische Korrelationsanalyse

2 Matrixalgebra 7.1 eine geordnete Liste von skalaren Variablenwerten heißt Vektor: - Anzahl der Elemente x i, i=1..n in einem Vektor bestimmen die Dimension - ein 1-dimensionaler Vektor ist demnach ein Skalar - per definitionem ist x ein Spaltenvektor und die Transponierte x T ein Zeilen- vektor - die Addition und Subtraktion von Vektoren vollzieht sich direkt über die Elemente der Vektoren – immer vorausgesetzt, dass die Vektoren die gleiche Dimension besitzen: - Multiplikation von einem Vektor mit einem Skalar liefert einen Vektor:

3 Matrixalgebra 7.1 Vektoroperationen: - zwei Vektoren der gleichen Dimension können zum sog. Skalarprodukt mitein- ander multipliziert werden, Ergebnis ist ein Skalar: - ein Vektor kennzeichnet einen Punkt in einem n-dimensionalen Raum: - die sog. Euklidische Länge eines Vektors im Raum beschreibt die Distanz zwischen diesem Punkt und dem Ursprung (Skalar): - Winkel zwischen zwei Vektoren ist gegeben durch: 0 zwei Vektoren sind orthogonal (cos(α) = 90°), wenn das Skalarprodukt gleich null ist, wegen: cos(0) = 90°

4 Matrixalgebra 7.1 eine Matrix ist eine 2-dimensionale rechtwinklige Datenstruktur mit n Zeilen und m Spalten: - die Werte x ij, i = 1..n, j = 1..m heißen die Elemente der Matrix - Dimension einer Matrix: - eine (1 x m)-dimensionale Matrix entspricht einem Zeilenvektor - eine (n x 1)-dimensionale Matrix entspricht einem Spaltenvektor - eine (1 x 1)-dimensionale Matrix ist eine Skalar - eine quadratische Matrix liegt vor bei: - eine symmetrische Matrix liegt vor bei: - Definition der Einheitsmatrix: Dimension von I passt sich immer der entsprechen Matrixoperation an Hauptdiagonale

5 Matrixalgebra 7.1 Matrixoperationen: - Transponierte einer Matrix durch Vertauschen von Zeilen und Spalten (Spiegelung an Hauptdiagonalen): - für symmetrische Matrizen gilt: - Multiplikation einer Matrix mit einem Skalar funktioniert ebenfalls über die Elemente: - Addition/Subtraktion zweier Matrizen ist nur für identische Dimensionen definiert und vollzieht sich über die Elemente:

6 Matrixalgebra 7.1 Matrixoperationen: - Multiplikation zweier Matrizen ist nur definiert, wenn die Anzahl der Spalten in der linken Matrix der Anzahl der Zeilen in der rechten Matrix entspricht: - graphisch lässt sich die Matrixmultiplikation veranschaulichen als eine Vielzahl von Skalarprodukten zwischen den entsprechenden Zeilen- und Spaltenvek- toren innerhalb der Matrizen: - damit ist offensichtlich, dass für Matrizen das Kommutativgesetz der skalaren Multiplikation nicht gilt: im obigen Fall würde YX zu einer (3 x 3)-dimensionalen Matriz Z führen

7 Matrixalgebra 7.1 Matrixoperationen: - Asymmetrie der Matrixmultiplikation kann am besten anhand von Vektoren veranschaulicht werden:

8 Matrixalgebra 7.1 Matrixoperationen: - Summe der Diagonalelemente einer quadratischen Matrix heißt Spur: - Determinante einer quadratischen Matrix ist eine skalare Größe, die in etwa dem Vektorbetrag entspricht: - diese Berechnung ist rekursiv, d.h. es müssen zunächst alle Unter- determinanten von X berechnet werden bis det(X) = x 11 bei n = m = 1 - nur vom Computer zu lösen außer bei (2 x 2)-Matrizen:

9 Matrixalgebra 7.1 Matrixoperationen: - eine Division ist nur für quadratische Matrizen definiert, die den sog. vollen Rang besitzen oder nichtsingulär sind: - bei singulären Matrizen ist die Determinante gleich null - nichtsinguläre Matrizen sind invertierbar, d.h. es exisitert für Matrix X eine Matrix Y, so dass gilt: - dann ist Y die Inverse von X: - sehr rechenaufwendig (Computer!) außer bei (2 x 2)-Matrizen: Matrix enthält keine redundante Information, d.h. keine Zeile oder Spalte kann durch Linearkombination aus einer anderen Zeile bzw. Spalte rekonstruiert werden: x ij c x kj, i k für alle j=1..m

10 Matrixalgebra 7.1 Matrixoperationen: - Diagonalmatrizen lassen sich ebenfalls sehr einfach invertieren, indem Kehrwert auf Diagonale eingesetzt wird: - invertierte Matrix hat die gleiche Dimension wie die Ausgangsmatrix - wenn Ausgangsmatrix symmetrisch, ist auch die Inverse symmetrisch - weitere Gesetze bei Matrixoperationen:

11 Matrixalgebra 7.1 Eigenwerte und Eigenvektoren einer quadratischen Matrix: - Eigenwerte sind Skalare und Eigenvektoren Vektoren, die der folgenden Gleichung genügen: - dabei ist 0 eine Matrix mit allen Elementen gleich null - für jedes Paar Eigenwert-Eigenvektor, das dieser Gleichung genügt, genügt auch jedes skalare Vielfache des Eigenvektor dieser Gleichung - der Eindeutigkeit halber wird ferner gefordert, dass alle Eigenvektoren die Einheitslänge besitzen: - damit bleibt aber das Vorzeichen des Eigenvektor beliebig, da (-1) e der Gleichung ebenfalls genügt - bei nichtsingulären Matrizen X existieren exakt n = m Paare Eigenwert-Eigen- vektor: - bei singulären Matrizen ist wenigstens ein Eigenwert gleich null - wegen Einheitslänge ist Skalarprodukt eines Eigenvektors mit sich selbst immer gleich eins: - bei symmetrischen Matrizen gilt ferner, dass verschiedene Eigenvektoren orthogonal sind:

12 Matrixalgebra 7.1 Eigenwerte und Eigenvektoren einer quadratischen Matrix: - in der Statistik werden Eigenwerte und Eigenvektoren meist für reelle (nicht komplexe) symmetrische Matrizen berechnet: - meist werden die n Eigenvektoren zu einer Matrix zusammengefasst mit den Eigenvektoren in den n Spalten: - die orthogonale Transformation bedeutet eine Rotation des n-dimen- sionalen Koordinatensystems von, genannt Eigenraum: dann sind auch die Eigenwerte und Eigenvektoren reellwertig 1. Eigen- vektor n. Eigen- vektor 0 deckt gleiches Gebiet ab wie Originalkoordinaten, aber mit anderen Axen, die bestimmten Eigenschaften entsprechen: z.B. Raumrichtungen der maximalen Kovarianz in X, wenn X eine Kovarianz-/Korrelationsmatrix ist

13 Matrixalgebra 7.1 Eigenwerte und Eigenvektoren einer quadratischen Matrix: - die n Paare Eigenwert-Eigenvektor enthalten die gleiche Information wie die Ausgangsmatrix X, sind also eine Transformation von X - für symmetrische Matrizen kann das durch die sog. spektrale Jordan- Zerlegung ausgedrückt werden: - diese Zerlegung kann auch wie folgt geschrieben werden: - Ausgangsmatrix kann über eine mit den Eigenwerten λ i gewichtete Summe der Hilfsmatrizen H i wiederhergestellt werden - damit entspricht spektrale Zerlegung einer Matrix der Fouriertransformation einer einzelnen Zeitreihe Eigenwerte entsprechen Fourier-Koeffizienten Eigenvektoren entsprechen Cosinus-Funktionen

14 Matrixalgebra 7.1 Eigenwerte und Eigenvektoren einer quadratischen Matrix: - eine weitere wichtige Eigenschaft der spektralen Zerlegung ist, dass die Spur der Ausgangsmatrix der Summe der Eigenwerte entspricht: - die Determinante der Ausgangsmatrix ist ebenfalls gegeben durch die Eigenwerte: - eine reelle symmetrische Matrix heißt positiv definit, wenn alle Eigenwerte nichtnegativ sind: - die Berechnung der Eigenwerte und Eigenvektoren ist selbst bei kleinen Matrizen sehr rechenaufwendig (Computer!) - der Algorithmus zur Berechnung der Eigenwerte und Eigenvektoren heißt auch Matrixdiagonalisierung, weil die Eigenvektoren die Ausgangsmatrix in eine Diagonalmatrix überführen: - die Eigenvektoren einer Martrix X und ihrer Inversen X -1 sind identisch, aber mit reziproken Eigenwerten: wenn X die Kovarianzmatrix, entspricht Summe der Eigenwerte der Gesamtvarianz von X damit muss bei einer singulären Matrix mit det(X) = 0 wenigstens ein Eigenwert gleich null sein

15 Hauptkomponentenanalyse 7.2 in den Geowissenschaften wird häufig mit komplexen Datensätzen oder komplexen Begrifflichkeiten gearbeitet: - es ist häufig erwünscht, die Datenvielfalt übersichtlicher zu gestalten, ohne dabei die wesentliche Information zu verlieren - dazu muss die Anzahl der Variablen im Raum, in der Zeit oder im Hinblick auf verschiedene Sachverhalte möglichst effektiv reduziert werden - es entstehen neue Variablen (Hauptkomponenten), die bspw. Regionen oder neue komplexere Sachverhalte charakterisieren Zielsetzungen der Hauptkomponentenanalyse: - aus einer Menge von Variablen sollen Gruppen gebildet werden (Regiona- lisierung) - Menge der Variablen soll reduziert werden (Datenreduzierung) - Bildung von orthogonalen Variablen, die stochastisch unabhängig sind (z.B. Prädiktoren für die multiple Regression) die Hauptkomponentenanalyse wird häufig auch als EOF-Analyse be- zeichnet, um der Tatsache Rechnung zu tragen, dass STP-Daten betrachtet werden: Empirische Orthogonalfunktionen = Hauptkomponenten = Principal Component Analysis (PCA)

16 Hauptkomponentenanalyse 7.2 Bsp. klimatische Charakterisierung anhand von Temperaturvariablen in Deutschland:

17 Hauptkomponentenanalyse 7.2 Bsp. klimatische Charakterisierung anhand von Temperaturvariablen in Deutschland: - Frage nach Temperaturvariablen, die hoch korreliert sind und somit zu neu- en Indikatoren des Klimas zusammen- gefasst werden können - die Interkorrelation der Variablen wird in einer Korrelationsmatrix oder Kovarianzmatrix dokumentiert: - hohe Korrelationen existieren zwischen TJan, TJahr, ZEis, ZFrost sowie zwi- schen TSJan und TSJul: 1. neuer Indikator: Temperatur als Funktion von φ und h 2. neuer Indikator: Kontinentalität 3. neuer Indikator: ?

18 Hauptkomponentenanalyse 7.2 Kovariabilität kann über unterschiedliche Bezugseinheiten bestimmt werden – je nach Fragestellung bzw. Datenlage: - zwischen verschiedenen Variablen über räumliche oder zeitliche Bezugs- einheiten: - bei einer Variablen zwischen verschiedenen Raumeinheiten über zeitliche Bezugseinheiten: - seltener bei einer Variablen zwischen verschiedenen Zeiteinheiten über räum- liche Bezugseinheiten (zeitliche Regionalisierung) Var 1Var 2…Var m RE/ZE 1x 11 x 12 …x 1m RE/ZE 2x 21 x 22 …x 2m …………… RE/ZE nx n1 x n2 …x nm Kovariabilität 1 Zeitpunkt bzw. 1 Ort RE 1RE 2…RE m ZE 1x 11 x 12 …x 1m ZE 2x 21 x 22 …x 2m …………… ZE nx n1 x n2 …x nm Kovariabilität 1 Variable Zielsetzung: neue Variablen definieren Zielsetzung: räumliche Regionalisierung z.B. Großwetterlagenklassifikation

19 Hauptkomponentenanalyse 7.2 Hauptkomponentenanalyse geht meist von Anomaliewerten aus: - liefert gleiche Ergebnisse wie Original- daten - Formeln vereinfachen sich jedoch

20 Hauptkomponentenanalyse 7.2 Berechnung der Kovarianzmatrix: - gegeben ist eine Datenmatrix X der Dimension (n x m) mit m Variablenerhe- bungen spaltenweise und einem STP-Umfang n zeilenweise: - Kovarianzmatrix lässt sich direkt aus der folgenden Matrixoperation schätzen: - Kovarianzmatrix ist quadratische, symmetrische und positiv definite Matrix: n : STP-Elemente (Zeit, Raum, Probanden) (Messwiederholungen) m : Untersuchungselemente (Variablen, Raumeinheiten, Probanden, …)

21 Hauptkomponentenanalyse 7.2 Berechnung der Korrelationsmatrix: - Korrelationsmatrix berechnet sich aus Kovarianzmatrix durch Wichtung mit den Einzelstandardabweichungen (vgl. Korrelationskoeffizient): - Korrelationsmatrix ist ebenfalls quadratisch, symmetrisch und positiv definit - bei standardisierten Werten sind Kovarianz- und Korrelationsmatrix identisch:

22 Hauptkomponentenanalyse 7.2 Hauptkomponentenanalyse versus Faktorenanalyse: - Hauptkomponentenanalyse geht davon aus, dass sich gesamte Varianz der Datenmatrix durch eine Linearkombination von Hauptkomponenten K l, l=1..q reproduzieren lässt (multiple Regression): - Faktorenanalyse geht davon aus, dass nur ein Teil der Gesamtvarianz von X durch eine Linearkombination von Faktoren F l, l=1..q reproduziert werden kann - darüber hinaus besitzt jede Variable noch einen Einzelrestfaktor E j, der nicht auf die Faktoren zurückzuführen ist (Stochastik, Fehler): - Hauptkomponentenanalyse ist varianzorientiert (Gesamtvarianz zu erklären), Faktorenanalyse ist kovarianzorientiert (nur gemeinsame Varianz mit Fakto- ren zu erklären) - Faktorenanalyse für die meisten Fragestellungen geeigneter, aber Problem der Kommunalitätenschätzung (Kovariabilität): PCA gebräuchlicher β jl = Regressionskoeffizienten bzw. Ladungen des Eigenvektor l für die Variable j γ j = partieller Regressionskoeffizient bzw. Ladung des Eigenvektors der Eigenva- rianz für die Variable j

23 Hauptkomponentenanalyse 7.2 Vorgehensweise der PCA: - Datensatz mit Vielzahl von Variablen X j, j=1..m soll reduziert werden auf geringere Anzahl von Hauptkomponenten K l, l=1..q: - Hauptkomponenten (PCs) gehen aus Linearkombination der ursprünglichen Variablen hervor und sollen möglichst viel Varianz der Ausgangsdaten erklären - sehr effektiv, wenn q << m erreicht werden kann, d.h. wenn bedeutende Korrelationen zwischen den Variablen X j existieren: Datenmatrix enthält redundante Information; streng genommen aber praktisch immer q = m - 1. Hauptkomponente k 1 erklärt größten gemeinsamen Varianzanteil von X - nachfolgende Hauptkomponenten k l, l=2..q erklären jeweils nächst größeren Varianzanteil unter der Vorgabe, dass sie unkorreliert (orthogonal) mit den PCs kleinerer Ordnungsnummer sind: Orthonormalsystem - PCs mit diesen Eigenschaften sind unmittelbar definiert über die Eigen- vektoren e l, l=1..q der Kovarianzmatrix S: - l-te PC k l zu bestimmen durch Projektion des Datenvektors x auf den l-ten Eigenvektor e l :

24 Hauptkomponentenanalyse 7.2 Vorgehensweise der PCA: - Verfahren setzt also Diagonalisierung der Kovarianz- oder Korrelationsmatrix voraus: Kovarianzmatrix: unterschiedliche Varianz der m Variablen X j soll betont werden Korrelationsmatrix: unterschiedliche Varianz der Variablen soll unberücksichtigt bleiben Muster der typischen Bodendruck- variabilität auf der Nordhalbkugel: Kovarianzmatrix: PCA fokussiert mehr auf das Islandtief, da dort die Kovarian- zen größer sind (Azorenhoch sehr stabil) Korrelationsmatrix: Kovarianzen werden standardisiert, d.h. PCA hat keinen regi- onalen Fokus bei Vergleich Tropen-Außertropen eher Korrelationsmatrix diagonalisieren

25 Hauptkomponentenanalyse 7.2 Vorgehensweise der PCA: - jeder Eigenvektor hat einen Eintrag für jede der Ausgangsvariablen: Ladungen des Eigenvektor: - geometrisch zeigt der 1. Eigenvektor in die Richtung im m-dimensionalen Raum, in die die m Ausgangsvariablen gemeinsam die größte Variabilität besitzen: Ladungen des Eigenvektor kennzeichnen die Kovariabilität zwischen der entsprechenden Ausgangsvariablen und der neuen Variablen (PC) damit kommt auch die Kovariabilität zwischen den Ausgangsvariablen zum Ausdruck m = 2 n = 28 : Realierung von x (Pfeilspitze jedes Vektors) : Ausrichtung der Kovarianz- matrix : 1. und 2. Eigenvektor als neue Axen des Koordinaten- systems α := 90° Var 1 α rotiertes kartesisches Koordinatensystem

26 Hauptkomponentenanalyse 7.2 Vorgehensweise der PCA: - Hauptkomponenten entstehen durch Projektion der Daten auf die Eigen- vektoren: - der Vektor aller Hauptkomponentenwerte zum Zeitpunkt i berechnet sich aus: - über alle Zeitpunkte i entsteht eine Matrix, die in den Spalten die einzelnen Hauptkomponenten enthält: - durch die Orthogonlität der Eigenvektoren sind auch die Hauptkom- ponenten wechselseitig unkorreliert Wert der Hauptkomponenten l zum Zeitpunkt i durch Projektion des m-dimensionalen Datenvektors zum Zeitpunkz i auf den m-dimensonalen Eigenvektor l

27 Hauptkomponentenanalyse 7.2 Vorgehensweise der PCA: - die Kovarianzmatrix der Hauptkomponenten ist folglich eine Diagonalmatrix, nämlich exakt die Matrix Λ der Eigenwerte: - d.h. die Eigenwerte bezeichnen die Varianz der zugehörigen Hauptkompo- nente: - durch die Unabhängigkeit der Hauptkomponenten (Orthogonalität) summieren sich die Eigenwerte zur Gesamtvarianz von X auf: - damit lässt sich der erklärte Varianzanteil jeder Hauptkomponente berechnen zu: - im Gegensatz zur Faktorenanalyse geht die PCA davon aus, dass die Ge- samtvarianz von X vollständig aus einer Linearkombination der PCs reprodu- ziert wird

28 Hauptkomponentenanalyse 7.2 Vorgehensweise der PCA: - die Hauptkomponenten k il und die Originaldatenreihen x ij sind über alle Be- zugseinheiten i=1..n korreliert, wenn der Wert des zugehörigen Eigenvektors e jl ungleich null ist: - Eigenvektoren und Hauptkomponentenmatrix enthalten die vollständige Information von X - d.h. die Ausgangsdatenmatrix kann über folgende Gleichung vollständig rekonstruiert werden, wenn alle q = m PCs und Eigenvektoren verwendet werden: - eine approximative Rekonstruktion von X kann mit einem Subset q < m von Eigenvektoren und Hauptkomponenten bewerkstelligt werden, wenn die Vari- ablen in X stark korreliert sind: Korrelation zwischen der Datenreihe X von Variable j und Hauptkomponente l über alle STP-Elemente i=1..n

29 Hauptkomponentenanalyse 7.2 Beispiel zur PCA: - Ausgangsdatenmatrix: beobachteter monatlicher Niederschlag in Afrika: Gitterpunkte über Land: m = Variablen im Raum dim(x) = Zeitpunkte (Monatswerte ): n = 1176 Datenmatrix X, dim(X) = (1176 x 1000): Zeitreihe an Gitterpunkt 1 (links oben) Zeitreihe an Gitterpunkt (rechts unten) Karte des Monatsniederschlages zu Zeitpunkt 1 (Jan. 1901): Karte des Monatsniederschlages zu Zeitpunkt 1176 (Dez. 1998):

30 Hauptkomponentenanalyse 7.2 Beispiel zur PCA: - Zielsetzung der PCA: Bildung neuer Variablen, die die Regionen der primären Niederschlagsvariabilität kennzeichnen - Berechnung der Kovarianzmatrix: - die Kovarianzmatrix ist quadratisch und symmetrisch Varianz des Monatsnieder- schlages an Gitterpunkt 1 (links oben) Kovarianz des Monatsnieder- schlages zwischen Gitterpunkt 1 und Gitterpunkt 2 Kovarianz des Monatsnieder- schlages zwischen Gitterpunkt 1 und Gitterpunkt Varianz des Monatsnieder- schlages an Gitterpunkt (rechts unten)

31 Hauptkomponentenanalyse 7.2 Beispiel zur PCA: - Diagonalisierung der Kovarianzmatrix: - im vorliegenden Fall sind die Eigenvektoren darzustellen als Karten über Afrika (identisch mit räumlicher Auflösung der Ausgangsdaten mit m = 10000) - der erklärte Varianzanteil eines jeden Eigen- vektors ist gegeben durch die Normierung mit der Gesamtzahl der Eigenwerte: 1. Eigenvektor (größter Varianz- anteil) Eigenvektor (kleinster Varianz- anteil) Ladung des 1. Eigenvektors am Gitterpunkt 1 (links oben) Ladung des 1. Eigenvektors am Gitterpunkt (rechts unten) Ladung des Eigenvektors am Gitterpunkt 1 Ladung des Eigenvektors am Gitterpunkt Eigenwert des 1. Eigenvektors Eigenwert des Eigenvektors

32 Hauptkomponentenanalyse 7.2 Beispiel zur PCA: - Berechnung der Hauptkomponenten (PCs): - im vorliegenden Fall ist jede PC als Zeitreihe über i = 1..n = Zeit- punkte darzustellen - insgesamt lassen sich alle m PCs mit den n Zeitpunkten zu einer Matrix zusammen- fassen, die die identische Dimension wie die Ausgangsmatrix X besitzt: - X und K beinhalten die gleiche Information, aber mit unterschiedlichen Koordinatenachsen Wert der 1. PC zu Zeitpunkt i Wert der PC zu Zeitpunkt i Zeitreihe der 1. PC Zeitreihe der PC

33 Hauptkomponentenanalyse 7.2 Beispiel zur PCA: - graphische Darstellung der ersten 4 EOFs (Eigenvektoren, Hauptkomponen- ten und erklärter Varianzanteil: 1. EOF: - erklärt 9,3% der Gesamt- varianz - größte Ladungen im tropischen Afrika - gleiches Vorzeichen: homogene Variabilität in dieser Region - PC zeigt dekadische Variabilität und Trend seit EOF: - erklärt 7,1% der Gesamt- varianz - größte Ladungen im tropischen Afrika - umgekehrtes Vorzeichen: zonal gegensätzliche Variabilität - PC zeigt interannuelle Variabilität durch ENSO 3. EOF: - erklärt 5,8% der Gesamt- varianz - größte Ladungen im tropischen Afrika - umgekehrtes Vorzeichen: meridional gegensätz- liche Variabilität - PC zeigt Trend seit 1970 durch Gill-Modell 2. EOF: - erklärt 4,8% der Gesamt- varianz - größte Ladungen im tropischen Afrika - zonaler Tripol der Variabilität - PC zeigt interannuelle Variabilität durch ENSO bei höherer zonaler Wellenzahl

34 Hauptkomponentenanalyse 7.2 Beispiel zur PCA: - Fazit: mit nur 4 PCs statt Gitterpunktszeitreihen lassen sich bereits 27% der gesamten Niederschlagsvariabilität sowie einige wesentliche Pro- zesse der Klimabeeinflussung über Afrika reproduzieren Hauptkomponentenanalyse ist in der vorgestellten Form nur für quadratische symmetrische Matrizen anwendbar: - Verallgemeinerung für beliebige (n x m)-Matrizen wird durch SVD-Analyse bewerkstelligt (Singular Value Decomposition = Einzelwertzerlegung): - dieses Gleichungssystem ist ebenfalls durch vorgegebene mathematische Algorithmen zu lösen - Verbindung zwischen SVD und PCA: X = Datenmatrix L = linke Einzelvektoren Ω = Einzelwerte R = rechte Einzelvektoren Spaltenvektoren von R sind die Eigenvektoren von X T X Spaltenvektoren von L sind die Eigenvektoren von XX T Einzelwerte in Ω sind die Wurzel aus den Eigenwerten in Λ

35 Kanonische Korrelationsanalyse 7.3 bei der PCA werden durch Linearkombination neue Variablen aus einem einzelnen multivariaten Datensatz bestimmt, die maximale Varianzanteile repräsentieren bei der kanonischen Korrelationsanalyse (CCA = Canonical Correlation Analysis) werden aus zwei multivariaten Datensätzen durch Linearkombina- tion neue Muster (Eigenvektoren) erzeugt: - bei Projektion der Daten auf diese kanonischen Muster entstehen neue sog. kanonische Variablen, die maximal korreliert sind - kanonische Variablen sind wie Hauptkomponenten untereinander unkorreliert - PCA identifiziert interne Variabilität, CCA identifiziert den Zusammenhang zwischen zwei multivariaten ZVA - zu verstehen als eine Erweiterung der multiplen Regression: - jetzt multivariater Prädiktand betrachtet

36 Kanonische Korrelationsanalyse 7.3 in den Geowissenschaften werden bei der CCA meist räumliche Felder betrachtet: - Vektor enthält verschiedene Raumeinheiten mit i=1..n Messwiederholun- gen einer bestimmten Variablen - Vektor enthält die gleichen oder beliebige andere Raumeinheiten mit i=1..n Messwiederholungen einer anderen Variablen - bei simultanen Messungen von und lässt sich Kopplung der beiden Felder diagnostizieren - bei zeitverzögerten Messungen lässt sich Feld aus Feld statistisch prognostizieren Vorgehensweise der CCA: - Ausgangspunkt ist die gemeinsame Kovarianzmatrix zweier multivariater ZVA - dazu werden die beiden Datenvektoren zu einem neuen Vektor zusammen- gefasst:

37 Kanonische Korrelationsanalyse 7.3 Vorgehensweise der CCA: - unter Berücksichtigung der Messwiederholungen (meist Zeitpunkte) entsteht eine gemeinsame Datenmatrix mit Anomalien: - dann lässt sich die zugehörige Kovarianzmatrix von C in vier Blöcke unter- teilen: - die kanonischen Variablen v j und w j sind wieder Linearkombinationen der Ausgangsvariablen X und Y: v, w : kanonische Variablen a, b : kanonische Vektoren (kanonische Muster)

38 Kanonische Korrelationsanalyse 7.3 Vorgehensweise der CCA: - kanonische Muster und zugehörige Datenvektoren müssen gleiche Dimension besitzen: - Gesamtzahl zu extrahierender kanonischer Variablen entspricht kleinerer Dimension von X und Y: - kanonische Variablen werden so gebildet, dass gilt: kanonische Variablen besitzen absteigende Korrelationskoeffizienten r vw : kanonische Korrelationen r C a und b werden immer so gewichtet (-1), dass die r C 0 verschiedene kanonische Variablen sind wechselseitig unkorreliert a und b so normiert, dass die kanonische Variablen die Varianz 1 haben

39 Kanonische Korrelationsanalyse 7.3 Vorgehensweise der CCA: - mit diesen Eigenschaften besitzt die gemeinsame Kovarianzmatrix der kanoni- schen Variablen die einfache Form: - bei PCA wird neues kartesisches Koordinatensystem mit den Eigenvektoren der Kovarianzmatrix als Axen bestimmt - bei CCA werden mit a und b zwei neue Koordinatensysteme für X und Y bestimmt - die neuen Basisvektoren a und b sind jedoch nicht orthogonal und haben keine Einheitslänge

40 Kanonische Korrelationsanalyse 7.3 Vorgehensweise der CCA: - die kanonischen Variablen lassen sich wieder spaltenweise zu einer Matrix zusammenfassen und berechnen sich durch Projektion der Daten auf die kanonischen Vektoren: - die Zusammenhänge zwischen den Originalzeitreihen und kanonischen Variablen lassen sich über die lineare Einfachkorrelation bestimmen: 1. kanonische Variabe M. kanonische Variabe

41 Kanonische Korrelationsanalyse 7.3 Vorgehensweise der CCA: - kanonische Vektoren a und b werden so gewählt, dass die Korrelation zwi- schen den resultierenden kanonischen Variablen v und w maximal ist - das impliziert jedoch nicht, dass auch die Varianz von X und Y gut abgebildet wird - bei hohen kanonischen Korrelationen aber geringer erklärter Varianz von X und Y ist physikalische Interpretation der kanonischen Moden (Vektoren und Variablen) fragwürdig - die Bestimmung der erklärten Varianz R 2 j hängt davon ab, wie gut X und Y aus jeder einzelnen kanonischen Variablen reproduziert werden können, wo- bei aus allen kanonischen Variablen exakt wieder die Gesamtinformation von X und Y rekonstruiert werden kann: - wenn m 1 = m 2 sind die Matrizen A und B quadratisch und es gilt: - wenn m 1 m 2 ist die Matrix A oder B mit größerer Dimension nicht quadra- tisch und somit nicht invertierbar - fehlende Reihen der nicht quadratischen Matrix müssen mit Phantomwerten aufgefüllt werden (s.u.)

42 Kanonische Korrelationsanalyse 7.3 Vorgehensweise der CCA: - wegen (n-1) -1VTV=I und (n-1) -1 W T W=I berechnet sich die Kovarianzmatrix der multivariaten ZVA X und Y zu: - damit ist der Varianzanteil der j-ten kanonischen Variablen an der Gesamt- varianz von X bzw. Y: - zur Berechnung der kanonischen Vektoren stehen verschiedene Algorithmen zur Verfügung: aa T und bb T sind Matrizen der Einzel- varianzen jeder kanonischen Variablen Gesamtvarianz berechnet sich aus der Summe dieser Einzelvarianzen über alle m 1 bzw. m 2 kanonischen Variablen sind Spaltenvektoren in der inversen Matrix Eigenwertgleichungen wie bei PCA Einzelwertzerlegung (SVD)

43 Kanonische Korrelationsanalyse 7.3 Vorgehensweise der CCA: - gesucht sind Paare von Eigenvektoren e j für X und f j für Y mit zugehörigen identischen Eigenwerten λ j mit j=1..M - diese Eigenvektoren können aus den folgenden Matrizen bestimmt werden: - hierzu muss die Quadratwurzel einer Matrix bzw. einer inversen Matrix berechnet werden; es gilt für quadratische Matrizen:

44 Kanonische Korrelationsanalyse 7.3 Vorgehensweise der CCA: - Berechnung der kanonischen Korrelationen auf Basis der Eigenvektoren e j und f j bzw. der zugehörigen Eigenwerte: - Berechnung der kanonischen Vektoren (Muster) auf Basis der Eigenvektoren: - durch die Normierung der Eigenvektoren e j und f j auf 1 ist gewährleistet, dass die die Varianz der kanonischen Variablen auch auf 1 normiert ist - Diagonalisierung großer Matrizen ist sehr rechenaufwendig, deshalb nur eine Eigenwertgleichung für e j gelöst und f j daraus abgeleitet: - die Euklidische Normierung im Nenner bewirkt | f j | = 1

45 Kanonische Korrelationsanalyse 7.3 Beispiel zur CCA: - Variable X: Meeresoberflächentemperaturen (SST) im Nordpazifik ( ) - Variable Y: geopotentielle Höhe in 500 hPa (Z500) über außertropischer Nordhemisphä- re ( ) - 1. kanonisches Muster der SST zeigt zona- len Dipol - zugehöriges 1. kanonisches Muster von Z500 zeigt typischen Wellenzug über NHK: positives PNA-Muster - d.h. warme SST im NE-Pazifik bewirken typische Tröge und Rücken in der Höhen- strömung - kanonische Korrelation beträgt 0,79 (stark) - 1. kanonische Mode erklärt 18% der SST- Variabilität und 23% der Z500-Variabilität - 1. kanonische Variable entspricht PNA-Zeitreihe: PNA-Index

46 Take-away Die statistische Analyse multivariater ZVA basiert auf den Regeln der Matrixalgebra. Zielsetzung der Hauptkomponentenanalyse ist die Ableitung neuer komplexer Variablen bzw. die Reduzierung der Ausgangsvariablen nach der Vorgabe einer Varianzmaximierung. Diese neuen Variablen werden Hauptkomponenten genannt. Die Berechnung erfolgt auf der Basis von Eigenvektoren, die ein rotier- tes orthogonales Koordinatensystem der Ausgangsvariable aufspannen. Die erklärte Varianzanteil jeder Hauptkomponente an der Gesamtvarianz der Ausgangsvariablen wird durch die Eigenwerte ausgedrückt. Die kanonische Korrelationsanalyse untersucht den Zusammenhang zwischen zwei multivariaten ZVA. Dabei entstehen ebenfalls neue sog. kanonische Variablen, die maximal miteinander korreliert sind und in Beziehung zu den kanonischen Vektoren (meist räumliche Muster) stehen. 7


Herunterladen ppt "Eigenwerttechniken 7 7.1 Matrixalgebra 7.2 Hauptkomponentenanalyse 7.3 Kanonische Korrelationsanalyse."

Ähnliche Präsentationen


Google-Anzeigen