Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung.

Ähnliche Präsentationen


Präsentation zum Thema: "TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung."—  Präsentation transkript:

1 TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung

2 Erläuterung Wahrscheinlichkeiten: ∙ a priori = durch Vorwissen gewonnen ∙ a posteriori = empirisch ermittelt Problem: Klassifizierung von Merkmalsvektoren Wahrscheinlichkeiten: P(Ci) Klasse Ci tritt auf (a priori) P(x | Ci) Vektor x tritt unter Klasse Ci auf (likelihood) P(x)Vektor x tritt auf P(Ci | x) Klasse Ci tritt unter Vektor x auf (a posteriori) Lösung: Entscheidungsregeln aus der Wahrscheinlichkeitslehre = Zuordnung Merkmalsvektor x  Klasse Ci

3 Erläuterung Berechnung von P(Ci | x): P(Ci | x) = P(x | Ci) * P(Ci) / P(x) Entscheidungsregel: x  a wenn P(a | x) > P(b | x) x  b wenn P(b | x) > P(a | x)

4 Erläuterung Einfluss der „a priori“-Wahrscheinlichkeit: „a priori“ = P(Ci) P(x | Ci) * P(Ci) P(C1) = 0,5 P(C2) = 0,5 P(C1) = 0,95 P(C2) = 0,05 P(x | Ci) * P(Ci) = P(x ∩ Ci)

5 Hautfarbe erkennen Farbkomponenten eines Bildpunktes: ∙ RBG-Wert = (Rot, Grün, Blau) ∙ Additive Farbmischung = Farbdarstellung auf dem Bildschirm

6 Hautfarbe erkennen Algorithmus: Erkennung von Hautfarbe in einem Bild = Klassifizierung eines Bildpunktes Unterscheide die Klassen… H = Hautfarbe !H = Keine Hautfarbe …aufgrund der Merkmale r, g, b = Farbanteile eines Bildpunktes …sowie der „a priori“ - Wahrscheinlichkeiten P(H) und P(!H) …und der bedingten Wahrscheinlichkeiten P(r | H), P(g | H) und P(b | H) sowie P(r | !H), P(g | !H) und P(b | !H)

7 Hautfarbe erkennen Lösung mittels „Naive Bayes“: Annahme: r, g, b sind stochastisch unabhängig. Entscheidungsregel: Entscheide H, wenn P(H | r, g, b) > P(!H | r, g, b)

8 Hautfarbe erkennen Vereinfacht: Likelihood Ratio Test Entscheide H, wenn Entscheide !H, wenn

9 Hautfarbe erkennen Ermitteln der benötigten Wahrscheinlichkeiten: P(x i | C j ) aus empirisch ermittelter Lookup-Table. P(C j ) ebenfalls empirisch ermittelt. P(x i ) aus dem aktuellen Bild (Histogramm) ermittelt.  Entfällt bei Likelihood Ratio Test. Ausgabe des Algorithmus: Jeder Pixel: Klassifizierung H oder !H Transformation in binäres Bild = Haut- und Nicht-Haut-Regionen

10 Hautfarbe erkennen Train Background: Threshold von 0,5: P(H) = 0,5 P(!H) = 0,5 Mit „Train Background“ Ohne „Train Background“ P(H | x) > P(!H | x)

11 Hautfarbe erkennen Modell 2: Modell 3: Durch Modell bestimmt: P(x | Ci) Vektor x tritt unter Klasse Ci auf (likelihood) P(x | !H) P(x | H)

12 Hautfarbe erkennen Wahl der Trainingsdaten: - Erkennungsrate zu gering! Verbesserung: Es soll mehr Hintergrund erkannt werden!  Varianz erhöhen. P(x | !H)

13 Hautfarbe erkennen Anzahl Trainingsdaten  Klassifikation: Mehr Trainingsdaten: - Erkennungsleistung für untrainierte Fälle steigt. - Erkennungsleistung für trainierte Fälle sinkt.  Generalisierung vs. Spezialisierung Art der Trainingsdaten: Ausreißer enthalten? Optimale Anzahl: - Hängt von Bedürfnissen ab. - Erkennungsrate auf Testdatensatz maximal.

14 Ende Vielen Dank für die Aufmerksamkeit.  Fragen? Anmerkungen?


Herunterladen ppt "TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung."

Ähnliche Präsentationen


Google-Anzeigen