Maschinelles Lernen   Präsenzübung.

Slides:



Advertisements
Ähnliche Präsentationen
Steigung m berechnen Man kann die Steigung auch berechnen,
Advertisements

Maschinelles Lernen Jun. Prof. Dr. Achim Tresch
Heute 1.F – Test zur Varianzhomogenität 2.Bartlett-Test zur Varianzhomogenität 3.Chi – Quadrat Tests für Häufigkeiten 4.Chi – Quadrat Tests zur Verteilungsanpassung.
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
1 1. Splineglättung 1.1 Motivation 1.2 Notation 1.3 Splineglättung
Terminierung und Deadlocks Enkhbat Daginaa Betreuerin Prof. Heike Wehrheim Totale Korrektheit.
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
Forschungsstatistik II
Heute Prüfung der Produkt-Moment Korrelation
Der Binomialtest Man habe einen wahren Anteil P.
Mittelwert, Median, Quantil
Ein Konfidenzband für ROC-Kurven mit SAS
Statistische Methoden II SS 2007 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Statistische Methoden II SS 2008
Konfidenzintervalle Intervallschätzung
M-L-Schätzer Erwartungswert
Statistische Methoden II SS 2007 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
TESTS. Worum es geht Man möchte testen, ob eine bestimmte Annahme (Hypothese) über Parameter der Realität entspricht oder nicht. Beobachtung (Stichprobe)
Die Student- oder t-Verteilung
Konfidenzintervalle Intervallschätzung Jeder Beobachtung wird ein Intervall C( ) der reellen Zahlen zugeordnet Niveau Dabei ist die Wahrscheinlichkeit,
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
Statistische Methoden I WS 2007/2008 Donnerstag, 31. Januar 2008 und Freitag, 1. Februar 2008 Probeklausur nächste Woche - statt Vorlesungen -
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Statistische Methoden I SS 2005
Klausurtermin (laut Prüfungsamt) Probeklausur Freitag, 13. Juni 2003 statt Vorlesung.
Achtung Vorlesung am Montag, den 21. Juni Zeit: Uhr Ort: Kiste.
II. Wahrscheinlichkeitstheorie
Statistische Methoden II SS 2003 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
III. Induktive Statistik
Die Vorlesung am 14. Mai (Tag nach Himmelfahrt) wird verlegt. Der Nachholtermin wird noch bekannt gegeben.
Bedingte Wahrscheinlichkeiten
Statistische Methoden I WS 2002/2003 Probeklausur Freitag, 13. Dezember statt Vorlesung - Nächsten Freitag!!!
Maximum-Likelihood-Schätzer ( diskreter Fall) Likelihood-Funktion mit oder M-L-Schätzer.
Das Steigungsdreieck Wie du gerade gelernt hast, gibt das m in der Funktionsgleichung y=mx+b die Steigung eines Graphen an.
Tutorium
Vorlesung: Biometrie für Studierende der Veterinärmedizin Helmut Küchenhoff 1 Zusammenfassung zur Vorlesung Begriff der biologischen Variabilität.
Vorlesung Biometrie für Studierende der Veterinärmedizin
Vorlesung Biometrie für Studierende der Veterinärmedizin Zur Kommunikation von Wahrscheinlichkeiten Relative Häufigkeiten sind grundsätzlich.
Zur Kommunikation von Wahrscheinlichkeiten
Wiederholung und Beispiele
Bayes‘sche Verfahren (Mitchell Kap. 6), Teil 1
Maschinelles Lernen Bayessche Verfahren (Mitchell Kap. 6), Teil 1.
Eigenschaften der OLS-Schätzer
Entscheidung bei Infomationsdefizit: Simultane optimale Alternativensuche und Nutzenpräzisierung o.Univ. Prof. Dkfm. Dr. Wolfgang Janko, WU.
- Organisatorisches: Termine
Lernen und Klassifizieren AS2-2
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/ /23.1.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Information und Kommunikation
Information und Kommunikation
Information und Kommunikation
Die Poisson-Verteilung: Mittelwert und Standardabweichung
STATISIK LV Nr.: 1375 SS März 2005.
Mehr zum Testen von Hypothesen
Stochastik ganz kurz Beispiel diskret Würfelwurf Beispiel stetig

Die Gaussverteilung.
Aufgabe 5 Gegeben sei folgende Graphik mit den zugehörigen Merkmalsdefinitionen. – Erstellen Sie die zugehörige Kontingenztabelle der absoluten Häufigkeiten.
Methoden epidemiologischer Forschung
Geoinformationssysteme
EIN NEUES ENSEMBLE- KLASSIFIKATIONSVERFAHREN Tim Schneider Rotation Forest.
Methoden der Psychologie
Multivariate Analysemethoden Johannes Gutenberg Universität Mainz
 Präsentation transkript:

Maschinelles Lernen   Präsenzübung

Übung 1: Binäre Klassifikation Die Entscheidungsregel eines binären Klassifikators (Klassen ω1 und ω2) sei durch eine Entscheidungsschwelle d gegeben: Wie lautet die Formel für das erwartete (Gesamt)Risiko dieses Klassifikators, gegeben eine Lossfunktion λ ? Wie ist diese Formel für den Spezialfall λ=0-1-Loss zu interpretieren? Fixiere λ=0-1-Loss. Zeige, dass für ein d, welches das Risiko minimiert, gilt: Zeichne ein Beispiel für Fall b). Ist das Kriterium in b) hinreichend? Konstruiere aus deinem Beispiel ein einfaches Gegenbeispiel.

Übung 1: Binäre Klassifikation Die Längen von Seebarsch (ω1) und Lachs (ω2) seien Cauchy-verteilt. Die Lossfunktion sei 0-1 Loss. Die maximale akzeptable Fehlerrate für die Fehlklassifikation eines Seebarsches als Lachs sei e1. Bestimme das optimale Klassifikationsverfahren, welches diese Bedingung erfüllt. Wie groß ist für dieses Verfahren die Fehlklassifikationsrate von Lachs, e2? Wie groß ist das erwartete Risiko dieses Klassifikators für a1= -1,a2=1, b=1, p(L)=P(B), e1=0.5? Die kummulative Verteilungsfunktion der Cauchy-Verteilung ist

„gutes“ Merkmal „schlechtes“ Merkmal Einschub: Wie vergleicht man die Güte von Merkmalen? Wahrscheinlich-keitsdichte „gutes“ Merkmal Stastistik Gruppe 1 Statistik Gruppe 2 Wahrscheinlich-keitsdichte „schlechtes“ Merkmal

Einschub: Wie vergleicht man die Güte von Merkmalen? True Negatives True Positives False Negatives False Positives Schranke

Negativer Vorhers.wert NPV (TN/N) Positiver Vorhers.wert PPV (TP/P) Einschub: Wie vergleicht man die Güte von Merkmalen? Klassifikator Negative (N) Positive (P) Gold-stan-dard („Wahr-heit“) Gesunde (G) Echt Negative (TN) Falsch Positive (FP) Spezifität (TN/G) Kranke (K) Falsch Negative (FN) Echt Positive (TP) Sensitivität (TP/K) Negativer Vorhers.wert NPV (TN/N) Positiver Vorhers.wert PPV (TP/P)

Einschub: Wie vergleicht man die Güte von Merkmalen? Operating Point 1-Spezifität Sensitivität 1 besser Schranke

Einschub: Wie vergleicht man die Güte von Merkmalen? 1 Sensitivität 1-Spezifität 1 1 Sensitivität 1-Spezifität 1 Schranke

Einschub: Wie vergleicht man die Güte von Merkmalen? 1 Sensitivität 1-Spezifität 1 1 Sensitivität 1-Spezifität 1 Schranke

ROC Kurve ROC Kurve Receiver Operating Characteristic (ROC) gut 1 gut Sensitivität 1-Spezifität 1 ROC Kurve 1 Sensitivität schlecht 1-Spezifität 1

Beispiele von ROC-Kurven Receiver Operating Characteristic (ROC) Beispiele von ROC-Kurven

Beispiele von ROC-Kurven Area under Curve (AUC), partial Area under Curve (pAUC) Beispiele von ROC-Kurven AUC

Beispiele von ROC-Kurven Area under Curve (AUC), partial Area under Curve (pAUC) Beispiele von ROC-Kurven pAUC (0.7) Spez = 0.7

Übung 2: ROC-Kurven / Positiver Prädiktiver Wert In einem binären Klassifikationsproblem (Klassen ω1 und ω2) sei die Verteilung eines Merkmals in Klasse ω1 uniform auf [0,1], die entsprechende Verteilung in Klasse ω2 sei uniform auf [0,b] für ein b ∊ [0,1]. a) Berechne den Operating Point eines entscheidungsschwellenbasierten Klassifikators mit Schwelle d (Entscheidung für Klasse ω2, falls beobachtetes Merkmal < d , ansonsten Entscheidung für Klasse ω1). b) Berechne und zeichne die ROC-Kurve für verschiedene Merkmale (verschiedene b). Für welche b ist eine gute Klassifikation möglich?

Übung 2: ROC-Kurven / Positiver Prädiktiver Wert Ein ein statistischer Test auf Zugehörigkeit zu Klasse ω1 soll zur Konstruktion eines Klassifikators verwendet werden. Der Test gibt für ein beobachtetes Merkmal x einen p-Wert ∊ [0,1] zurück. Dieser stammt aus einer uniformen Verteilung, wenn die Beobachtung aus ω1 stammt. Im gegenteiligen Fall ist die Verteilung der p-Werte eine linksgipflige Betaverteilung. Wir wenden den entscheidungsschwellenbasierten Klassifikator aus a) auf die p-Werte an. Es seien n Beobachtungen gemacht worden, deren Klassenzugehörigkeit unbekannt ist. Die a priori Wahrscheinlichkeiten P(ωj) sowie die Parameter der Betaverteilung seien unbekannt. Zeichne für verschiedene Betaverteilungen und verschiedene Priors die Verteilung der beobachteten p-Werte. Denke dir ein Verfahren zur Schätzung der Prior aus Wie würdest du nun die Parameter der Betaverteilung schätzen? Zu gegebener Schwelle p0 kann dann der positive prädiktive Wert (PPV) abgeschätzt werden. Wie?