Kerndichteschätzung Nearest-Neighbour-Verfahren

Slides:



Advertisements
Ähnliche Präsentationen
Steffen Maretzke October 2010 pers com
Advertisements

Maschinelles Lernen   Metriken für Nearest Neighbour-Verfahren Lineare Diskriminanzfunktionen.
Ich habe nie gelernt, Aufgaben zu lösen
We have a magnetic field that it is very similar to the one of a dipole. Well in reality this is true close to the surface if we go far away enough it.
Abkürzungen mit Präpositionen German Prepositional Contractions
Durch die Nacht “through the night” Silbermond
You need to use your mouse to see this presentation © Heidi Behrens.
You need to use your mouse to see this presentation © Heidi Behrens.
You need to use your mouse to see this presentation © Heidi Behrens.
Montag den 16.Dezember Lernziel: To begin stage 2 of preparation for speaking assessment.
You need to use your mouse to see this presentation © Heidi Behrens.
CALPER Publications From Handouts to Pedagogical Materials.
Separable Verbs Turn to page R22 in your German One Book R22 is in the back of the book There are examples at the top of the page.
Universität StuttgartInstitut für Wasserbau, Lehrstuhl für Hydrologie und Geohydrologie Copulas (1) András Bárdossy IWS Universität Stuttgart.
Prüfungen neu. Änderungen Probesystem 4 Prüfungen pro Schuljahr Jeweils ganze Lektion, keine Fragemöglichkeit am Anfang der Prüfungslektion Taschenrechner.
Data Mining Spectral Clustering Junli Zhu SS 2005.
Der formelle Imperativ – the Imperative
Coordinating Conjunctions Why we need them & how to use them deutschdrang.com.
KIT – die Kooperation von Forschungszentrum Karlsruhe GmbH und Universität Karlsruhe (TH) The dependence of convection-related parameters on surface and.
Konjugier,,sein”! ichwir du ihr er, sie,essie, Sie.
Institut für Angewandte Mikroelektronik und Datentechnik Phase 5 Architectural impact on ASIC and FPGA Nils Büscher Selected Topics in VLSI Design (Module.
Lust auf Lesen Treffpunkt Deutsch Sixth Edition. Relative Pronoun object of a preposition Recall from chapter 9 that relative clauses describe people,
1IWF/ÖAW GRAZ Data Combination David Fischer, Rumi Nakamura (IWF/OeAW)  Fluxgate: noise + distortion gets worse than the searchcoil at ~ 6 Hz.  Searchcoil:
Synchronization: Multiversion Concurrency Control
Learning Objective Be able to give the weather forecast for Germany.
Literary Machines, zusammengestellt für ::COLLABOR:: von H. Mittendorfer Literary MACHINES 1980 bis 1987, by Theodor Holm NELSON ISBN
The perfect tense Vital for a good grade!!. There are 2 parts to the perfect tense 1)The correct part of haben (or sein) 2) + the past participle.
Name: ___________________________________________ Hör verstehen: (______/10) Mark whether you hear a “du”, an “ihr” or a “Sie” command Wer sagt.
Nachweis von B 0 s -Oszillationen mit dem ATLAS Detektor am LHC B. Epp 1, V.M. Ghete 2, E. Kneringer 1, D. Kuhn 1, A. Nairz 3 1 Institut für Experimentalphysik,
Schreiben Sie fünf Sätze aus diesen Elementen. [Beispiel
QUIZZ to keep to receive to need to buy to give (present) to sell
COMMANDS imperative 1. you (formal): Sie 2. you (familiar plural): ihr
Probesystem Gym 4 Prüfungen pro Schuljahr, in der 2. Klasse 4 ½ Prüfungen. Jeweils ganze Lektion, keine Fragemöglichkeit am Anfang der Prüfungslektion.
Magnetenzephalogramm, MEG
Kapitel 4 Grammar INDEX 1.Ordinal Numbers 2.Relative Pronouns and Relative Clauses 3.Conditional Sentences 4.Posessive: Genitive Case.
You need to use your mouse to see this presentation © Heidi Behrens.
Imperfekt (Simple Past) Irregular or strong verbs
Kapitel 2 Grammar INDEX 1.Subjects & Verbs 2.Conjugation of Verbs 3.Subject Verb Agreement 4.Person and Number 5.Present Tense 6.Word Order: Position of.
Geoinformationssysteme
Kapitel 8 Grammar INDEX 1.Command Forms: The Du-Command Form & Ihr- Command 2.Sentences & Clauses.
Reflexiv-Verben Deutsch 2/AC.
Quiz: modal verbs Note which sentence is correct: a, b or c.
Als ich mein Gesicht As I my face In der Wasserspiegelung sah, In the water’s reflection saw, Lachte ich über die Erinnerungen, I laughed about the memories.
Jetzt Machen 1.Turn in your Fragebogen on the table at the back of the classroom if you have not yet done so. 2.Grab one of each document on the back table.
The PageRank Axioms Johannes Zaunschirm. Überblick / Outline  Alon Altman and Moshe Tennenholtz. “Ranking Systems: The PageRank Axioms”., 2005  Basisstruktur.
Environment problems The problems - The problem of waste  too much trash -People use too much cars -Oil platform accidents -Exhaust gas pollution -Deforestation.
ENVIRONMENT PROBLEMS What can I do? Pineapples Traffic  Use public vehicles  Use more bike and go by walking  There should be a filter in every car.
Word order: 1.In a main clause the VERB is the second idea: Helgakommteben aus der Bäckerei This may not be the second word Meiner Meinung nachsind Hobbys.
QUEST-Meeting, 14. Dez. 2007, Offenbach Parametrisierung der Verdunstung in einem 2-Momenten-Schema Axel Seifert Deutscher Wetterdienst, Offenbach Geschäftsbereich.
Essay structure Example: Die fetten Jahre sind vorbei: Was passiert auf der Almhütte? Welche Bedeutung hat sie für jede der vier Personen? Intro: One or.
What’s the weather like?. Look at the question above Turn it around and you have Das Wetter ist.... The phrase Das Wetter ist.... or Es ist.... can be.
Fitness. An english presentation.
Interrogatives and Verbs
Freizeit Thema 5 Kapitel 1 (1)
you: ihr ( familiar plural ) you: du ( familiar singular)
Die Umwelt Thema 13 Kapitel 3 (1)
Sentence Structure Connectives
Das Taschentuch-Spiel
you: ihr ( familiar plural ) you: du ( familiar singular)
Das Wetter.
Students have revised SEIN and HABEN for homework
Die andere Vergangenheitsform
Ferrite Material Modeling (1) : Kicker principle
Uranus. Uranus is the seventh in terms of distance from the Sun, the third in diameter and the fourth in mass of the planet of the Solar System. It was.
Was ist die Verbindung hier?
The Conversational Past
The Conversational Past
School supplies.
- moodle – a internet based learning platform
 Präsentation transkript:

Kerndichteschätzung Nearest-Neighbour-Verfahren Maschinelles Lernen   Kerndichteschätzung Nearest-Neighbour-Verfahren

Kerndichteschätzung Idee: Bei gegebenen Daten D={x1,…,xN}Verwende die Datenpunkte in der Umgebung eines Punktes x zur Schätzung von p(x) (bzw. zur Schätzung von p(x|ω), falls verschiedene Klassen ω gelernt werden sollen). Setze und Dann ist eine Approximation von p(x). Fragen: Wie muss V gewählt werden? Wie groß muss k sein? Ist eine Dichte?

Kerndichteschätzung Wahre Dichte

Parzen Windows, Nearest Neighbours Asymptotik für wachsende Zahl von Datenpunkten N: Notwendige Kriterien für : Zwei Möglichkeiten für die praktische Wahl von kN,VN bei gegebener Zahl von Datenpunkten N: 1. Wähle VN, z.B. VN = N-0.5. Dann erwartet man im Mittel kN = N0.5 Punkte pro Volumeneinheit, und kN/N = N-0.5. (Parzen Window Methode) 2. Wähle kN, z.B. kN = N0.5. Vergrößere das Volumen so lange, bis es kN Punkte enthält. Man erwartet im Mittel VN = N-0.5 Punkte pro Volumeneinheit, und kN/N = N-0.5. (Nearest Neighbour Methode)

Aus: Duda, Hart, Stork. Pattern Recognition Parzen Windows, Nearest Neighbours 1. Wähle VN, z.B. VN = N-0.5. Dann erwartet man im Mittel kN = N0.5 Punkte pro Volumeneinheit, und kN/N = N-0.5. (Parzen Window Methode) Parzen Windows Nearest Neighbours 2. Wähle kN, z.B. kN = N0.5. Vergrößere das Volumen so lange, bis es kN Punkte enthält. Man erwartet im Mittel VN = N-0.5 Punkte pro Volumeneinheit, und kN/N = N-0.5. (k-Nearest Neighbour Methode, kNN) Aus: Duda, Hart, Stork. Pattern Recognition

Kerndichteschätzung Die Gestalt des Volumens ist noch nicht festgelegt. Wählt man jenes als einen Hyperkubus mit Zentrum x und Kantenlänge hN, so hat man: und mit schreibt sich daraus folgt (bei p-dimensionalen Daten)

Kerndichteschätzung Verallgemeinerung: Ist die Funktion ρ selbst eine Dichte, so auch (Beweis: Übung) Definiere für beliebige Kerndichte ρ und „Fensterbreite“ h :

Aus: Duda, Hart, Stork. Pattern Recognition Kerndichteschätzung Dichteschätzungen für N=5 Datenpunkte und verschiedene Intervallbreiten. Dichte = Standardnormalverteilung Aus: Duda, Hart, Stork. Pattern Recognition

Kerndichteschätzung Gebräuchliche Kerndichten sind: Gauß Kernel Epanechnikov Kernel Tri-cube Kernel

Aus: Duda, Hart, Stork. Pattern Recognition Kerndichteschätzung Klassifikation: Schätze p(x|ω1) und p(x|ω2) und fälle (evtl. nach zusätzlichen a priori-Annahmen über p(ωk) ) danach eine ML bzw. eine MAP-Entscheidung. Aus: Duda, Hart, Stork. Pattern Recognition

Kerndichteschätzung Die Fensterbreite h bestimmt, wie stark sich die geschätzte Dichte den Daten anpasst. Wie immer ist auf einen Kompromiss zwischen Bias und Varianz zu achten. Eine zu kleine Fensterbreite produziert eine Überanpassung an die Daten (“overfitting”). eine zu große Fensterbreite übergewichtet die initial angenommene Dichte (“underfitting”). Beides führt zu schlechten Verallgemeinerungseigen- schaften der Modelle.

Narada-Watson weighted average Exkurs: kNN/Parzen Windows und Regression The idea is to replace the k-nearest neighbours average by a more robust estimate. Generalize the regression function by weighting the contribution of each yj to the regression function at the point x: Narada-Watson weighted average Here, K(x,z) is the so-called regression kernel which determines the influence of the point zєX on the regression function at x. In order to obtain a sensible regression function, a point z close to x should have a higher impact than a point further away, so the kernel function K(x,z) needs to be bell-shaped around x (as a function of z). Exkurs: kNN Regression Note that the result of the choice is k- nearest neighbours averaging. Usually, the kernel is chosen to be translation invariant, so it can be written as

Exkurs: kNN Regression Like the parameter k for nearest neighbours, the parameter λ determines the tradeoff between bias and variance in the prediction error and need to be chosen carefully (the sample data is given by the black points) : λ small λ medium λ large

Exkurs: kNN Regression The result of a weighted regression is a smooth function. However, the bias of such a weighted regression function at the boundaries of the domain X is rather (if f is non-constant at the boundaries). An idea to remove this bias is to combine linear regression with a kernel weighting scheme: For each point xєX, solve the weighted linear regression with Kλ one of the mentioned kernel functions. For every x, this yields a local regression function fx(t)=αx+βxt. The function fx is then evaluated only at the point t=x in order to obtain the (global) regression function

Exkurs: kNN Regression Taken from: Tibshirani et al. „Elements of Statistical Learning“