Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

© Christoph Lauer Engineering

Ähnliche Präsentationen


Präsentation zum Thema: "© Christoph Lauer Engineering"—  Präsentation transkript:

1 © Christoph Lauer Engineering
Fuzzy Classification © Christoph Lauer Engineering

2 Inhaltsverzeichniss Kurze Einführung in die Fuzzy-Logik
Was ist Klassifikation Fuzzy Klassifikation Beispiele Vergleich mit anderen Clustering Methoden (EM, Gausian-Means, LDA)

3 Was ist Fuzzy Logik Fuzzy = Unscharf
Diskrete Logik  Eindeutige Zustäde Fuzzy Logik Mehrdeutige gewichtete Zuordnung

4 Fuzzifizierung Fuzzifizierung: Umwandlung einer numerischen Größe in Zugehörigkeitsgrade zu linguistischen Termen einer linguistischen Variablen.

5 Interferenz Interferenz = Auswertung, hier Regelbasiert
A = abstand zu vorderem Auto v = Geschwindigkeit B = Bremsintensität (soll hier bestimmt werden, es soll bis zum Stillstand gebremst werden)

6 Defuzzifizierung Defuzzyfizierung = Konvertierung des Fuzzy-Signals ein scharfes Ausgangssignal. Hier Schwerpunktmethode

7 kurze Zusammenfassung Fuzzy Control
Regelbasiertes Expertenwissen direkt in automatisierungstechnische Lösungen integriert. Im vergleich zum PI-Regler immer Stabil.

8 Klassification Hierarchisches Clustern cluster in clustern Ontologie (gliederung) Taxometrie (strikt hierarchihe Gliederung) Partisionierendes Clustern

9 Klassifikation Clustern = Zusammenfassung von Objekten zu Klassen
Clustering Algorithmen werden benutzt um Gruppen von ähnlichen Daten zu finden. Hier nur Partitionierendes Clustering

10 Klassification Keywords
Klasse oder Kategorie Klassengrenze Klassifikationsverfahren Klassifikationsgüte

11 Fuzzy Klassification Fuzzy Clustering vergibt keine scharfe Zugehörigkeit zu einem bestimmten Cluster, sondern nur eine prozentuale Zugehörigkeit. ⇒ Zugehörigkeitsmatrix

12 Fuzzy Klassification Es ergibt sich für n Beobachtungen und k Cluster:

13 Algorithm Declarations
i = Datenpunkt mit i=1...n j = Klasse mit j=1...k uij = Zugehörigkeit zj = Clusterzentrum xi = Datenpunkt dij = Abstand vom Zentrum Result ⇒ k Klassen mit Centervektoren und Zugehörigkeits-wahrscheinlichkeit von jeder Beobachtung zu jeder Klasse Klassisches Clustering ⇒ Jede Beobachtung genau eine Klasse Fuzzy Clusterin ⇒ Jede Beobachtung gewichtet zu allen Klassen

14 Algorithm Itteration Geignette Wahl der Startpunkte der Clusterzentren zj0 Berechnung der Clusterzentren: Update der Distanzen: Ermittlung der Zugehörigkeitsgrade: Schritt solange bis Fehler Erbegnis: Clusterzentren und Zugehörigkeitswahrscheinlichkeit

15 C-Means Classification
Dieses Verfahren wird auch Fuzzy C-Means Klassifikation genannt wegen: C = Cluster Means = Clusterzentren

16 Beispiel: Schwertlilien-Arten
Datensatz: Fisher‘s Iris data set drei Schwertlilienarten vier Parameter: Blütenblatt (petal) länge Blütenblatt (petal) breite Kelchblatt (sepal) länge Kelchblatt (sepal) breite 150 Messungen Klassisches LDA Beispiel

17 Beispiel: Schwertlilien-Arten

18 Beispiel: Schwertlilien-Arten

19 Beispiel: Schwertlilien-Arten
Training data set and fuzzy-c-means cluster centres for c=3, ε=0.01(abbruchkriterium) nach 11 Itterationen

20 Beispiel: Schwertlilien-Arten
Fuzzifizierung durch Orthogonale Projektion

21 Beispiel: Schwertlilien-Arten
Regelbasierte Auswertung und Defuzzifizierung

22 Beispiel: Weinsorten Dataset: 178 Weinsorten aus der selben Region in Italien drei verschiedene Weinrebensorten (Klassen) 13 Parameter aus chemischer Analyse

23 Beispiel: Weinsorten

24 Beispiel: Weinsorten Fuzzification for only 5 Parameters

25 Beispiel: Weinsorten Regelbasierte Auswertung und Defuzzifizierung
Alleine mit diesen 5 Parameter ca. 98% Klassifizierungsgenauigkeit.

26 Andere Clustering Methoden
K-Means Clustering Gausian Mixture Clustering

27 K-Means Clustering Die k Cluster-Schwerpunkte werden zufällig verteilt. Jedes Objekt dem nächstegelegnden Cluster zugeordnet. Für jeden Cluster wird der Schwerpunkt neu berechnet, sodass er in der Mitte des Clusters liegt. Solange Schritt zwei bis Delta < Epsilon.

28 K-Means Clustering

29 K-Means Clustering Vorteil: Effektives und sehr einfaches Verfahren.
Nachteile: 1.) Hängt stark von der Wahl der Startpunkte ab 2.) es kann leere Klassen geben. Viele Variationen (geignettere Startpunkte, wiederhohlung mit verschiedenen Startpunkten, wiederhohlung mit steigender Clusteranzahl, vorclusterung mit Trainingsdaten)

30 Gaussian Mixture Clustering
Normalverteilung: Mean Variance

31 Gaussian Mixture Clustering
Multivariante Normalverteilung: Kovariancematrix Meanvector

32 Gaussian Mixture Clustering
Algorithmus: EM-Algorithmus (Expectation-Maximization) Klassen(ω) initialisieren mit zufälligen Means(μ) und Varianzen(σ) (Expectation) Zugehörigkeitsmatrix erstellen mit uij = P(ω) (Maximization) anpassen von μ und σ so das die Zugehörigkeit verbessert wird

33 Gaussian Mixture Clustering
GMM Clustering Beispiel mit der ertsen Varianz

34 Gaussian Mixture Clustering
Vorteile: Nachteile: Anwendung bei der Spracherkennung mit Markov-Ketten (GMM/HMM) und beim Datamining Auch andere Modele anstelle von Normalverteilungen (Cauchy/Laplace/ Rayleighverteilung…)

35 Vor/Nachteile Vorteile Nachteile Fuzzy Classification
Oftmals sehr wenig Regeln Notwendig Expertenwissen Notwendig und somit nicht vollständig autonomes Clustering möglich K-Means Effizient, Einfach und schnell. Starke Abhängigkeit von den Initialen Startpunkten GMM Sehr effektiv in der Spracherkennung beim Phonemclusering Clustering Aufwendige Trainingsphase (EM-Algorithmus),

36 Danke für Ihre Aufmerksamkeit Discussion


Herunterladen ppt "© Christoph Lauer Engineering"

Ähnliche Präsentationen


Google-Anzeigen