Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Fuzzy Classification © Christoph Lauer Engineering

Ähnliche Präsentationen


Präsentation zum Thema: "Fuzzy Classification © Christoph Lauer Engineering"—  Präsentation transkript:

1 Fuzzy Classification © Christoph Lauer Engineering

2 Inhaltsverzeichniss Kurze Einführung in die Fuzzy-Logik Was ist Klassifikation Fuzzy Klassifikation Beispiele Vergleich mit anderen Clustering Methoden (EM, Gausian-Means, LDA)

3 Was ist Fuzzy Logik Fuzzy = Unscharf Diskrete Logik Eindeutige Zustäde Fuzzy Logik Mehrdeutige gewichtete Zuordnung

4 Fuzzifizierung Fuzzifizierung: Umwandlung einer numerischen Größe in Zugehörigkeitsgrade zu linguistischen Termen einer linguistischen Variablen.

5 Interferenz Interferenz = Auswertung, hier Regelbasiert A = abstand zu vorderem Auto v = Geschwindigkeit B = Bremsintensität (soll hier bestimmt werden, es soll bis zum Stillstand gebremst werden)

6 Defuzzifizierung Defuzzyfizierung = Konvertierung des Fuzzy-Signals ein scharfes Ausgangssignal. Hier Schwerpunktmethode

7 kurze Zusammenfassung Fuzzy Control Regelbasiertes Expertenwissen direkt in automatisierungstechnische Lösungen integriert. Im vergleich zum PI-Regler immer Stabil.

8 Klassification Hierarchisches Clustern cluster in clustern Ontologie (gliederung) Taxometrie (strikt hierarchihe Gliederung) Partisionierendes Clustern

9 Klassifikation Clustern = Zusammenfassung von Objekten zu Klassen Clustering Algorithmen werden benutzt um Gruppen von ähnlichen Daten zu finden. Hier nur Partitionierendes Clustering

10 Klassification Keywords Klasse oder Kategorie Klassengrenze Klassifikationsverfahren Klassifikationsgüte

11 Fuzzy Klassification Fuzzy Clustering vergibt keine scharfe Zugehörigkeit zu einem bestimmten Cluster, sondern nur eine prozentuale Zugehörigkeit. Zugehörigkeitsmatrix

12 Fuzzy Klassification Es ergibt sich für n Beobachtungen und k Cluster:

13 Algorithm Declarations i = Datenpunkt miti=1...n j = Klasse mitj=1...k u ij = Zugehörigkeit z j = Clusterzentrum x i = Datenpunkt d ij = Abstand vom Zentrum Result k Klassen mit Centervektoren und Zugehörigkeits- wahrscheinlichkeit von jeder Beobachtung zu jeder Klasse Klassisches Clustering Jede Beobachtung genau eine Klasse Fuzzy Clusterin Jede Beobachtung gewichtet zu allen Klassen

14 Algorithm Itteration 1.Geignette Wahl der Startpunkte der Clusterzentren z j0 2.Berechnung der Clusterzentren: 3.Update der Distanzen: 4.Ermittlung der Zugehörigkeitsgrade: 5.Schritt solange bis Fehler 6.Erbegnis: Clusterzentren und Zugehörigkeitswahrscheinlichkeit

15 C-Means Classification Dieses Verfahren wird auch Fuzzy C-Means Klassifikation genannt wegen: C = Cluster Means = Clusterzentren

16 Beispiel: Schwertlilien-Arten Datensatz: Fishers Iris data set drei Schwertlilienarten vier Parameter: 1.Blütenblatt (petal) länge 2.Blütenblatt (petal) breite 3.Kelchblatt (sepal) länge 4.Kelchblatt (sepal) breite 150 Messungen Klassisches LDA Beispiel

17 Beispiel: Schwertlilien-Arten

18

19 Training data set and fuzzy-c-means cluster centres for c=3, ε=0.01(abbruchkriterium) nach 11 Itterationen

20 Beispiel: Schwertlilien-Arten Fuzzifizierung durch Orthogonale Projektion

21 Beispiel: Schwertlilien-Arten Regelbasierte Auswertung und Defuzzifizierung

22 Beispiel: Weinsorten Dataset: 178 Weinsorten aus der selben Region in Italien drei verschiedene Weinrebensorten (Klassen) 13 Parameter aus chemischer Analyse

23 Beispiel: Weinsorten

24 Fuzzification for only 5 Parameters

25 Beispiel: Weinsorten Regelbasierte Auswertung und Defuzzifizierung Alleine mit diesen 5 Parameter ca. 98% Klassifizierungsgenauigkeit.

26 Andere Clustering Methoden K-Means Clustering Gausian Mixture Clustering

27 K-Means Clustering 1.Die k Cluster-Schwerpunkte werden zufällig verteilt. 2.Jedes Objekt dem nächstegelegnden Cluster zugeordnet. 3.Für jeden Cluster wird der Schwerpunkt neu berechnet, sodass er in der Mitte des Clusters liegt. 4.Solange Schritt zwei bis Delta < Epsilon.

28 K-Means Clustering

29 Vorteil: Effektives und sehr einfaches Verfahren. Nachteile: 1.) Hängt stark von der Wahl der Startpunkte ab 2.) es kann leere Klassen geben. Viele Variationen (geignettere Startpunkte, wiederhohlung mit verschiedenen Startpunkten, wiederhohlung mit steigender Clusteranzahl, vorclusterung mit Trainingsdaten)

30 Gaussian Mixture Clustering Normalverteilung: Mean Variance

31 Gaussian Mixture Clustering Multivariante Normalverteilung: Kovariancematrix Meanvector

32 Gaussian Mixture Clustering Algorithmus: EM-Algorithmus (Expectation-Maximization) 1.Klassen(ω) initialisieren mit zufälligen Means(μ) und Varianzen(σ) 2.(Expectation) Zugehörigkeitsmatrix erstellen mit u ij = P(ω) 3.(Maximization) anpassen von μ und σ so das die Zugehörigkeit verbessert wird

33 Gaussian Mixture Clustering GMM Clustering Beispiel mit der ertsen Varianz

34 Gaussian Mixture Clustering Vorteile: Nachteile: Anwendung bei der Spracherkennung mit Markov-Ketten (GMM/HMM) und beim Datamining Auch andere Modele anstelle von Normalverteilungen (Cauchy/Laplace/ Rayleighverteilung…)

35 Vor/Nachteile VorteileNachteile Fuzzy ClassificationOftmals sehr wenig Regeln Notwendig Expertenwissen Notwendig und somit nicht vollständig autonomes Clustering möglich K-MeansEffizient, Einfach und schnell. Starke Abhängigkeit von den Initialen Startpunkten GMMSehr effektiv in der Spracherkennung beim Phonemclusering Clustering Aufwendige Trainingsphase (EM- Algorithmus),

36 Danke für Ihre Aufmerksamkeit Discussion


Herunterladen ppt "Fuzzy Classification © Christoph Lauer Engineering"

Ähnliche Präsentationen


Google-Anzeigen