Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Multivariate Analysemethoden Johannes Gutenberg Universität Mainz

Ähnliche Präsentationen


Präsentation zum Thema: "Multivariate Analysemethoden Johannes Gutenberg Universität Mainz"—  Präsentation transkript:

1 Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Diskriminanzanalyse Günter Meinhardt Johannes Gutenberg Universität Mainz

2 Discriminant Function Analysis (DFA)
Diskriminanzanalyse (DFA) Klassifikation Discriminant Function Analysis (DFA) Ziele Maximale Trennung von Gruppen auf einem gegebenem Set von p Meßvariablen. Auffinden von latenten Diskriminanzfunktionen, die sukzessive maximale Gruppentrennung gewährleisten. In der Regel: Auffinden eines niedrig dimensionierten Diskriminanzraumes, in dem die Gruppen separierbar sind. Case-Classification in optimalen, niedrig dimensionierten Räumen. Bestimmung von Klassifikationsfunktionen für Case-Classification. Voraussetzung Gleiche (homogene) Varianz-Kovarianz Matrizen in allen Gruppen. Testungen der Gruppenunterschiede (Centroide), sowie der Homogenität der Sj - Matrizen erfordern die Gültigkeit der multivariaten Normalverteilung.

3 Ansatz Anwendung Nachteile Diskriminanzanalyse (DFA) Klassifikation
Optimierung des Verhältnisses der Quadratsummen für „between“ und „within“ Group Varianz. Lösung über Eigenwertzerlegung einer aus B und W Komponenten zusammengesetzten Matrix. Anwendung Diagnostische Trennung schwierig zu trennender Gruppen. Bestimmung kritischer diagnostischer Variablen / Reduktion auf relevante diagnostische Variablen in multivariaten Klassifikationen. Konstruktion von Algorithmen zur Mustertrennung (Pattern recognition machines) und Bildklassifikation (bildgebende Verf.). Qualitätskontrolle und Evaluation von Versuchs- und Kontrollgruppen in multivariaten Designs. Nachteile Restriktion gleicher Varianz-Kovarianz Matrizen in allen Gruppen. Case-Classification: Klassifikation im Diskriminanzraum hat gegen- über MDC und Baysian Classifier keine wesentlichen Vorteile (außer Sparsamkeit) und läuft auf dasselbe hinaus.

4 2D-Beispiel Problem 2D Beispiel Diskriminanzanalyse
Bestes Kriterium auf x1 0.00 0.20 0.40 0.60 0.80 1.00 1.20 1.40 0.10 0.30 0.50 0.70 Fühlerlänge: X1 Flügellänge: X2 Blindmücke Stechmücke Kriterium Bestes Kriterium auf x1 Bestes Kriterium auf x2 Problem Klassifiziere anhand von Fühlerlänge (X1) und Flügellänge (X2) möglichst eindeutig in Stechmücke (c1) und Blindmücke (c2). Das geht mit einem Kriteriumswert auf jeder einzelnen Variable X1 und X2 offenbar nicht.

5 2D-Beispiel Lösung: 2D Beispiel Diskriminanzanalyse
1.40 1.20 Kriteriumsfunktion 1.00 Flügellänge: X2 0.80 0.60 0.40 0.20 0.00 0.00 0.10 0.20 0.30 0.40 0.50 0.60 0.70 Fühlerlänge: X1 Blindmücke Stechmücke Kriterium Lösung: Eine lineare Kriteriumsfunktion teilt den Variablenraum in 2 Gebiete: Oberhalb Stechmücke (c1), unterhalb Blindmücke (c2). Somit folgt die Klassifikationsfunktion

6 a a Einfache Lösung: x2 Zentrierung & Rotation x1
2D Beispiel Diskriminanzanalyse Einfache Lösung: Zuerst die Daten im Nullpunkt zentrieren und dann um den optimalen Winkel a drehen ! x2 Zentrierung & Rotation a x1 a Die Varianz zwischen den Gruppen wird auf der Achse x‘1 maximiert, und x‘2 steht senkrecht x‘1. Eine Parallele zu x‘2 liefert das optimale Trennkriterium.

7 z-Standard Diskriminanz- funktion 2D Beispiel Diskriminanzanalyse
standardisiert Koordinaten rotiert um a = 46° (clockwise) Diskriminanz- funktion Die neue x- Achse z1‘ ist die Diskriminanzfunktion y. Auf ihr läßt sich ein Kriterium zur optimalen Trennung beider Gruppen finden. Da eine Drehoperation auf die Diskriminanzfunktion geführt hat, ist sie darstellbar als eine Linearkombination der alten Koordinaten:

8 y: Linear- kombination Koeffizienten von y
2D Beispiel Diskriminanzanalyse y: Linear- kombination y (Diskriminanzfunktion) Kriterium y0 blind stech Da gilt mit und Koeffizienten von y Das Auffinden der Koeffizienten b1 und b2 ist also identisch mit dem Problem, den optimalen Drehwinkel a zu bestimmen. Hierfür braucht man ein Kriterium der gewünschten maximalen Trennung, und die Lösung des dahinter stehenden Maximierungsproblems. [Excel-Beispiel]

9 z2 Rotation zur y - Funktion z1 Klassifikation
2D Beispiel Diskriminanzanalyse z2 Rotation zur y - Funktion y (Diskriminanzfunktion) Kriterium y0 blind stech z1 y (Diskriminanzfunktion) Klassifikation Case-Classification durch einfachen Vergleich mit dem Kriterium y0. Prüfung des Gruppenunterschieds mit einem einfachen t - Test auf y. Voraussetzung: homogene Varianz-Kovarianz Matrizen.

10 Kriterium der Maximierung
Güte-Kriterium Diskriminanzanalyse Kriterium der Maximierung Maximiert wird das Verhältnis der Quadratsummen für die Variation auf y zwischen Gruppen QSB und der Variation innerhalb Gruppen QSw. (Wähle die Koeffizienten b so, daß G(b) maximal wird) Wie in der Varianzanalyse gilt die Quadratsummenzerlegung Quadrat-summen-zerlegung mit K = Anzahl Gruppen nl = Umfang Gruppe l

11 Kenngrößen der Güte Kennwerte Diskriminanzanalyse
g: (Eigenwert der Maximierung) Offenbar gilt

12 c2 - Test der Trennleistung Gepoolte Varianz der y - Funktion
Test & Normierung Diskriminanzanalyse c2 K = Anzahl Gruppen N = Snl = n1 + n2 +…nK m = Anzahl Variablen - Test der Trennleistung ist c2 verteilt mit m(K-1) Freiheitsgraden Die Trennleistung wird mit einem c2 Test auf Signifikanz getestet Die Varianz innerhalb der Gruppen wird zu einer gepoolt: Gepoolte Varianz der y - Funktion Normierte y - Funktion Damit wird die Varianz der Diskriminanzfunktion auf 1 normiert:

13 Additivität der Variation
B und W Matrix der x-Variablen Diskriminanzanalyse MANOVA Additivität der Variation Es gilt: Within Group QS und Kreuzprodukte Totale QS und Kreuzprodukte Between Group QS und Kreuzprodukte Kompakte Darstellung Hierin sind die x Vektoren mit m Komponenten (Variablen): Regel Die Matrizen B und W werden als inneres Produkt (Zeilen- mal Spalten) der Variablen-Vektoren aufgebaut und dann über Fälle und Gruppen summiert.

14 B-Matrix (p=2 Vars) x1 x2 x1 x2 Komponenten
B und W Matrix der x-Variablen Diskriminanzanalyse B-Matrix (p=2 Vars) Treatment (Group) Quadratsummen & Kreuzprodukte x1 x2 x1 x2 Komponenten Group Var

15 W-Matrix (p=2 Vars) x1 x2 x1 x2 Komponenten W aus gepoolten S -
B und W Matrix der x-Variablen Diskriminanzanalyse W-Matrix (p=2 Vars) Within group Quadratsummen & Kreuzprodukte (gepoolt) x1 x2 x1 x2 Komponenten Group Var W aus gepoolten S - Matrizen mit Sl der Varianz-Kovarianz Matrix in Gruppe l.

16 Max-Bedingung Maximierung Eigenwert-bedingung b ist Eigenvektor von A
Gang der Lösung (DFA) Diskriminanzanalyse Max-Bedingung mit ist die Darstellung der Quadratsummen der Diskriminanzfunktion y über die quadratische Form mit dem Vektor der b - Koeffizienten Maximierung führt auf und dies auf nach Vormultiplizieren mit auf Eigenwert-bedingung was eine Eigenwertbedingung für die Matrix ist. b ist Eigenvektor von A A ist eine m x m Matrix, also ist v allgemein m- stellig. Zu jedem Eigenwert g ungleich 0 existiert ein Eigenvektor v. Die Stellen des v Vektors sind die gesuchten Diskriminanzkoeffizienten jeder Diskrimi- nanzfunktion.

17 Normierung der Diskriminanz-funktion y
Lösung (DFA) Diskriminanzanalyse Eigenvektoren v mit Anzahl von v Es gibt so viele Eigenvektoren v, und damit auch so viele Diskriminanzfunktionen, wie die kleinere Zahl aus der Anzahl der Gruppen-1 und der Anzahl der Variablen, m. Normierung der Diskriminanz-funktion y Die gepoolte Varianz der einer Diskriminanzfunktion erhält man direkt aus der quadratischen Form Damit kann y direkt nach der Bestimmung normiert werden, indem man als Koeffizientenvektor der normierten Diskriminanzfunktion verwendet: Sind die Variablen x nicht standardisiert worden, kommt eine additive Konstante hinzu: Nicht standardisiert mit

18 Mehrere DFs (Diskriminanz-raum) Diskriminanzraum Diskriminanzanalyse
Sukzessive extrahierte Diskriminanzfunktionen klären absteigend geordnet Diskriminationsvarianz auf. Es gilt für die anteilige Varianzaufklärung durch Funktion yi Alle Diskriminanzfunktionen können auf signifikante Diskrimi- nationsleistung getestet werden (s. z.B. Bortz, 2005, S. 610) Alle sukzessiven Diskriminanzfunktionen sind orthogonal. Das Prinzip der Aufteilung der Diskriminationsvarianz auf sukzessiv nach Beitrag geordnete und orthogonale Diskriminanz- faktoren ist mit der PCA gut vergleichbar. Daraus ergibt sich auch ein vergleichbarer Anwendungszusammen- hang (s.n.)

19 Einzelfall-Klassifikation
Diskriminanzraum Diskriminanzanalyse Anwendung Ermittlung relevanter Diskriminationsvariablen. Wenn man an einer Reduktion der kritischen Varablen interessiert ist. Wenn der Vergleich / die Trennung von Populationen im Vordergrund steht: Benutzt man k -Diskriminanzfunktionen als Eingabedaten für MANOVA oder T2 Kontraste, wird eine maximale Trennschärfe erreicht, die größer ist als die der k einzelnen Variablen des Sets für k < m. Einzelfall-Klassifikation Kann im Diskriminanzraum mit denselben Verfahren (MDC, QCR, Baysian Classifier) wie üblich gemacht werden. Die Einzelfall-Klassifikation wird im vollständigen Diskriminanz- nicht besser als im Variablenraum mit allen Variablen. Vorteile ergeben sich nur, wenn weniger Variablen verwendet werden sollen. Die DFA gestattet die Herleitung einfacher Klassifikationsfunktionen mit denen die Fallklassifikation besonders ökonomisch ist.


Herunterladen ppt "Multivariate Analysemethoden Johannes Gutenberg Universität Mainz"

Ähnliche Präsentationen


Google-Anzeigen