TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung.

Slides:



Advertisements
Ähnliche Präsentationen
Inhalt Bildparameter Bildquellen Bildgröße/Bildformat Bildauflösung Farbtiefe Farbmodus Scannen Monitor Dateiformat Bildausschnitt Tonwertkorrektur.
Advertisements

Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
Julia Antoniuk Jessica Gottschalk Susana de Miguel
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
Maschinelles Lernen   Präsenzübung.
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Lic.Sc.Inf. Dr. Monique Jucquois-Delpierre
Fehler in der Entscheidungstheorie
Hypothesenprüfung nach Bayes
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Monte-Carlo Lokalisation im RoboCup: Ein Ansatz ohne Farbklassifikation Zwischenvortrag Diplomarbeit Informatik IX TU München 23. Mai 2002 Dirk Neumann.
Mixture Regression Modelle
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Klausuraufgaben.
Inhalt Einführung Problemstellung / Ziele Definitionen
Spree/Worg2/LE 10 Automatische Klassifikation = Zuordnung von Dokumenten zu bereits vorher festgelegten Klassen Zielsetzung: Dem Nutzer Informationen.
Wiederholung: Der Wahrheitsbegriff
4. Markov-Ketten 4.1. Übergangsmatrizen
Wahrscheinlichkeitstheorie. Statistische Methoden I WS 2009/2010 Einleitung: Wie schätzt man die Zahl der Fische in einem See? Zur Geschichte der Statistik.
Test auf Normalverteilung
Classification of Credit Applicants Using Data Mining. Thema.

Seminar: Informationstechnik in der Medizin Universität Dortmund Skin Detection Fakultät für Elektrotechnik und Informationstechnik Lehrstuhl für Kommunikationstechnik.
(additives Farbmischen)
Bayes‘sche Verfahren (Mitchell Kap. 6), Teil 1
Machine Learning KNN und andere (Kap. 8).
Maschinelles Lernen und automatische Textklassifikation
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Christian Schulz, Marc Thielbeer, Sebastian Boldt
Peripheriegeräte Erkennen und Funktionsweise
1 Dipl.-Ing.(FH) Oliver Schulte In Kooperation mit Thema : Objektorientierte Realisierung eines Programms zur Erkennung von Vogelstimmen mit Hilfe Neuronaler.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Neuronale Netze.
Statistische Lernmethoden
Geometrie : Rekonstruktion
Korpuslinguistik für und mit Computerlinguistik
Ausgleichungsrechnung
Strategie der Modellbildung
Digitale Bilder Advanced IT Basics
Data Mining Georg Pölzlbauer.
Klassifikation und Regression mittels neuronaler Netze
Multimediapraktikum SS07 Vision-Based Motion Analysis Handgestenerkennung.
Kopfübungen BORG Schoren KÜ 3
Bildbearbeitung: Theorie
Problemdefinition Variante 1 : Steifigkeitsuntersuchung
Entscheidungstheorie für Unentschlossene Indecision Theory.
Variogramme und Kriging
Bestimmung der richtigen Wortbedeutung. Einfache Vorstellung Einige Wörter haben mehr als eine Bedeutung (z.B. Bank, Hahn, Schloss, Titel, Kopf,...) Ein.
„Single Color Extraction Sebastian Bertram Proseminar SS 2005: Distanzen und Ähnlichkeitsmaße im hochdimensionalen Raum and Image Query“
K. Desch - Statistik und Datenanalyse SS05
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
...ist die kleinste darstellbare Datenmenge. Es wird in der Informatik, der Informationstechnik und in der Nachrichtentechnik entweder durch 0 oder durch.
Es wird verwendet in: Es ist die Bezeichnung von einer Datenmenge (0 und 1). Bit ist die kleinste darstellbare Datenmenge. Informatik Informationstechnik.
Geoinformationssysteme
Test 1 Test 2 Test 3. Test 4 Test 5 Test 6 Test 7 Test 8 Test 9.
Twoing & CHAID VON JOHANNES KREMER UND THOMAS HETZ.
CL Tree MW 31.1 Business Intelligence Wintersemester 2015 / 2016 Stanislav Prokupetz.
Institut für Eisenhüttenkunde Department of Ferrous Metallurgy Methoden der digitalen Bildverarbeitung zum Auffinden von fluoreszierenden Punkten auf Messproben.
TU Darmstadt FB 20 Informatik Wahr·neh·mung von Martin Tschirsich, Shuo Yang & Zijad Hausübung 2: Informationsextraktion (Kausalität, Raum und Bewegung)
EVALUIERUNG VON BILDERKENNUNGSALGORITHME N IN HINBLICK AUF NUTZBARKEIT IN DER FLASH ENTWICKLUNG GEHALTEN VON: DENNIS SABELLECK.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Prognose von Zeitreihen Hans Nübel Hans Nübel Prognose von Zeitreihen Aufbau 1.Motivation 2.Holt-Winters-Verfahren 3.Prognose.
HCS Übung 3: Computer Vision
Kapitel 2: Klassifikation
Test.
Wiederholung TexPoint fonts used in EMF.
Mittel- und Erwartungswert
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
 Präsentation transkript:

TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung

Erläuterung Wahrscheinlichkeiten: ∙ a priori = durch Vorwissen gewonnen ∙ a posteriori = empirisch ermittelt Problem: Klassifizierung von Merkmalsvektoren Wahrscheinlichkeiten: P(Ci) Klasse Ci tritt auf (a priori) P(x | Ci) Vektor x tritt unter Klasse Ci auf (likelihood) P(x)Vektor x tritt auf P(Ci | x) Klasse Ci tritt unter Vektor x auf (a posteriori) Lösung: Entscheidungsregeln aus der Wahrscheinlichkeitslehre = Zuordnung Merkmalsvektor x  Klasse Ci

Erläuterung Berechnung von P(Ci | x): P(Ci | x) = P(x | Ci) * P(Ci) / P(x) Entscheidungsregel: x  a wenn P(a | x) > P(b | x) x  b wenn P(b | x) > P(a | x)

Erläuterung Einfluss der „a priori“-Wahrscheinlichkeit: „a priori“ = P(Ci) P(x | Ci) * P(Ci) P(C1) = 0,5 P(C2) = 0,5 P(C1) = 0,95 P(C2) = 0,05 P(x | Ci) * P(Ci) = P(x ∩ Ci)

Hautfarbe erkennen Farbkomponenten eines Bildpunktes: ∙ RBG-Wert = (Rot, Grün, Blau) ∙ Additive Farbmischung = Farbdarstellung auf dem Bildschirm

Hautfarbe erkennen Algorithmus: Erkennung von Hautfarbe in einem Bild = Klassifizierung eines Bildpunktes Unterscheide die Klassen… H = Hautfarbe !H = Keine Hautfarbe …aufgrund der Merkmale r, g, b = Farbanteile eines Bildpunktes …sowie der „a priori“ - Wahrscheinlichkeiten P(H) und P(!H) …und der bedingten Wahrscheinlichkeiten P(r | H), P(g | H) und P(b | H) sowie P(r | !H), P(g | !H) und P(b | !H)

Hautfarbe erkennen Lösung mittels „Naive Bayes“: Annahme: r, g, b sind stochastisch unabhängig. Entscheidungsregel: Entscheide H, wenn P(H | r, g, b) > P(!H | r, g, b)

Hautfarbe erkennen Vereinfacht: Likelihood Ratio Test Entscheide H, wenn Entscheide !H, wenn

Hautfarbe erkennen Ermitteln der benötigten Wahrscheinlichkeiten: P(x i | C j ) aus empirisch ermittelter Lookup-Table. P(C j ) ebenfalls empirisch ermittelt. P(x i ) aus dem aktuellen Bild (Histogramm) ermittelt.  Entfällt bei Likelihood Ratio Test. Ausgabe des Algorithmus: Jeder Pixel: Klassifizierung H oder !H Transformation in binäres Bild = Haut- und Nicht-Haut-Regionen

Hautfarbe erkennen Train Background: Threshold von 0,5: P(H) = 0,5 P(!H) = 0,5 Mit „Train Background“ Ohne „Train Background“ P(H | x) > P(!H | x)

Hautfarbe erkennen Modell 2: Modell 3: Durch Modell bestimmt: P(x | Ci) Vektor x tritt unter Klasse Ci auf (likelihood) P(x | !H) P(x | H)

Hautfarbe erkennen Wahl der Trainingsdaten: - Erkennungsrate zu gering! Verbesserung: Es soll mehr Hintergrund erkannt werden!  Varianz erhöhen. P(x | !H)

Hautfarbe erkennen Anzahl Trainingsdaten  Klassifikation: Mehr Trainingsdaten: - Erkennungsleistung für untrainierte Fälle steigt. - Erkennungsleistung für trainierte Fälle sinkt.  Generalisierung vs. Spezialisierung Art der Trainingsdaten: Ausreißer enthalten? Optimale Anzahl: - Hängt von Bedürfnissen ab. - Erkennungsrate auf Testdatensatz maximal.

Ende Vielen Dank für die Aufmerksamkeit.  Fragen? Anmerkungen?