Maschinelles Lernen und Neural Computation

Slides:



Advertisements
Ähnliche Präsentationen
Präsentiert von Torben Pastuch
Advertisements

Seminarankündigung für das SS04
Perceptrons and the perceptron learning rule
4. Konzepte des Konnektionismus – Theorie Künstlich Neuronaler Netze
Modellierung und Schätzung von Variogrammen
Neuronale Netze Von Kay-Patrick Wittbold.
Dynamische Mathematik
Diese Fragen sollten Sie beantworten können
Forschungsstatistik I
Dynamische Programmierung (2) Matrixkettenprodukt
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
Computerkurs: Quantitative Auswertung biochemischer Experimente Guten Morgen.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
K. Desch - Statistik und Datenanalyse SS05
Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik, Universität Rostock Programmierung eingebetteter.
Uebung 03 Netzdateien.
Uebung 01 ANN mit MATLAB.
zur Vorlesung Neuronale Netzwerke
PowerPoint-Folien zur 8. Vorlesung „Bionik II / Biosensorik“
Statistische Methoden I SS 2005 Vorlesung:Prof. Dr. Michael Schürmann Zeit:Freitag (Pause: ) Ort:Hörsaal Loefflerstraße Übungen.
III. Induktive Statistik
Kennlinie Lichtregelung in JavaNNS Version 1.1
Tutorium
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Neuronale Netzwerke am Beispiel eines MLP
Neuronale Netze (Mitchell Kap. 4)
Machine Learning KNN und andere (Kap. 8).
Neuronale Netze 2 (Mitchell Kap. 4)
Maschinelles Lernen und automatische Textklassifikation
Neuronale Netze Teil II.
Universität Stuttgart Wissensverarbeitung und Numerik I nstitut für K ernenergetik und E nergiesysteme Numerik partieller Differentialgleichungen, SS 01Teil.
Ausgleichungsrechnung II
DataMining Von Daten zu Informationen und Wissen
6. Lange Nacht der Mathematik
Abschlussvortrag zur Studienarbeit
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Neuronale Netze.
Neuronale Netze Nachtrag Perzeptron
Vektorrechnung in der Schule



Data Mining Georg Pölzlbauer.
Klassifikation und Regression mittels neuronaler Netze
Stetige Kleinste-Quadrate-Approximation
Statistik – Regression - Korrelation
Einführung zur Fehlerrechnung
Nichtlineare Optimierung
Lineare Algebra 11. Matrizen Eine m  n-Matrix ist ein Raster aus m  n Koeffizienten, die in m Zeilen und n Spalten angeordnet sind. = (a ij )

Vom Neuron bis zur Boltzmann Maschine Miguel Domingo & Marco Block Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
SS 2009Maschinelles Lernen und Neural Computation 107 Kapitel 6: Unüberwachtes Lernen.
SS 2009Maschinelles Lernen und Neural Computation 133 Kapitel 7: Ensemble Methoden.
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Geoinformationssysteme
Programmiersprachen II Vorbesprechung Klausur Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
Organisation Referate Materialien Dritter Termin Workshop 27.Oktober 2010 Projektseminar WS 09/10 Konnektionistische Sprachverarbeitung 1.
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Emanuel Mistretta Lukas Schönbächler
Ausgleich nach der Methode der kleinsten Quadrate
Kapitel 2: Klassifikation
Kapitel 5: Der praktische Umgang mit komplexen Lernern
Maschinelles Lernen und Neural Computation
 Präsentation transkript:

Maschinelles Lernen und Neural Computation 840.042, VO, 1 Std. SS 2011 Georg Dorffner Inst. f. Artificial Intelligence Zentrum für Med. Statistik, Informatik und Intelligente Systeme Medizinische Universität Wien www.meduniwien.ac.at/user/georg.dorffner/lv/mlnc.html SS 2011 Maschinelles Lernen und Neural Computation

und Neural Computation Überblick Grundlagen – ML/NC Überwachtes Lernen: Klassifikation Überwachtes Lernen: Regression Lernen als Optimierung Komplexe Lerner in der Praxis Unüberwachtes Lernen Ensemble Methoden Kernel Methoden SS 2009 Maschinelles Lernen und Neural Computation

Begleitende Literatur Duda R., Hart P.E., Stork D.G.: Pattern Classification, 2nd edition, New York: Wiley, 2001. Bishop C.M.: Pattern Recognition and Machine Learning, New York: Springer, 2006. SS 2009 Maschinelles Lernen und Neural Computation

und Neural Computation Kapitel1: Grundlagen SS 2009 Maschinelles Lernen und Neural Computation

Maschinelles Lernen – mögliche Definitionen Computerprogramme, die sich mit Erfahrung verbessern (Mitchell 1997) (Artificial Intelligence) Auf der Basis von Beispielen nichttriviale Strukturen in Daten finden (Mustererkennung, Data Mining) Ein Modell der Daten schätzen, die diese beschreiben (Statistische Datenanalyse) SS 2009 Maschinelles Lernen und Neural Computation

Einige Vorausetzungen Merkmale (Features) Beschreiben die Fälle des Problems Messungen, Daten Lerner (Version Space) Eine Klasse von Modellen Lernverfahren Ein Algorithmus, der das beste Modell findet Generalisierung Struktur/Datenmodell soll neue Daten beschreiben können SS 2009 Maschinelles Lernen und Neural Computation

und Neural Computation Features Qualitativ, nominal z.B.: [Student, Arbeiter, Angestellter] Qualitativ, ordinal (enthält Ordnung) z.B.: [schlecht, mittelmäßig, gut] Numerisch, metrisch Intervallskala: kein natürlicher Nullpunkt, nur Differenzen bedeutungsvoll (z.B. Temp in °C) Verhältnisskala: natürlicher Nullpunkt, auch verhältnisse bedeutungsvoll (z.B. Größe in m) Diskret: nur endlich viele Werte (z.B. Anzahl) Stetig: theoretisch unendlich viele Werte (z.B. Länge) SS 2009 Maschinelles Lernen und Neural Computation

Beispiellerner: Perceptron Features: 2 numerische Werte (gezeichnet in Ebene) Aufgabe: Teile in zwei Klassen (weiß und schwarz) Lerner (version space): Trenngerade durch den Ursprung Lernregel: Nimm Normalvektor Addiere den Punktvektor eines falsch klassifizierten Beispiels Drehe Gerade, sodass neuer Vektor der Normalverktor wird Solange bis alles richtig klassifiziert Generalisierung: neue Punkte richtig klassifiziert Konvergenz garantiert, wenn Problem lösbar(Rosenblatt 1962) SS 2009 Maschinelles Lernen und Neural Computation

und Neural Computation Arten des Lernens Überwachtes Lernen (supervised learning) Zuordnung der Daten („Label“) bekannt Finde Zusammenhänge mit Input Beispiele: medizinische Diagnose, Temperaturvorhersage Unüberwachtes Lernen (unsupervised learning) Finde Struktur in den Daten Beispiele: Marktsegmentierung, Visualisierung Reinforcement Learning Finde Zusammenhänge anhand von globalem Feedback Beispiele: Steuerung einer Roboterhand, Lernen von Spielen SS 2009 Maschinelles Lernen und Neural Computation

und Neural Computation Ursprünglich biologisch motiviert (daher der Name) Lerner als Netzwerk einfacher Einheiten beschreibbar Stärke: beliebige nichtlineare Modelle (z.B. nicht nur Geraden) Voraussetzung: numerische Features Qualitative Features: als Binärcode (z.B. 1-aus-n) SS 2009 Maschinelles Lernen und Neural Computation

Das einfache mathematische Modell Aktivierung, Output Gewicht Propagierungsregel: Gewichtete Summe Euklidischer Abstand (später) Transferfunktion f: Schwellwertfkt. (McCulloch & Pitts) Lineare Fkt. Sigmoide Fkt. w1 Unit (Neuron)  yj f w2 xj … (Netto-) Input wi SS 2009 Maschinelles Lernen und Neural Computation

Perceptron als neuronales Netz Inputs sind zufällige „Featuredetektoren“ Binär kodiert Perceptron lernt Klassifikation Modell der Wahrnehmung / Objekterkennung Neuron.eng.wayne.edu SS 2009 Maschinelles Lernen und Neural Computation

Perceptron Learning Rule als Gewichtsadaption Target: Rosenblatt (1962) Zielvorgabe (target) notwendig = Lehrer Input wird dazugezählt (abgezogen), wenn Output falsch Verwendung: Klassifikation (Original: Input = visuelle Vorverarbeitung) Nach dem Lernschritt: SS 2009 Maschinelles Lernen und Neural Computation

und Neural Computation Bias Gewichtete Summe nicht vollständig Trenngerade geht immer durch Ursprung Konstante notwendig Realisierung: zusätzliche Unit, immer auf 1 gesetzt (Bias Unit) w0 SS 2009 Maschinelles Lernen und Neural Computation

Vektor- und Matrixnotation Lineares Perceptron ist Multiplikation des Input-Vektors mit der Gewichtsmatrix Kompakte Schreibweise Hilfsmittel aus Vektoralgebra SS 2009 Maschinelles Lernen und Neural Computation

Einschub: Matrixmulitplikation Multiplikation zweier Matrizen: elementweise multiplizieren und addieren Spaltenzahl der 1.Matrix = Zeilenzahl der 2. Resultat: Zeilen der 1. X Spalten der 2. Matrix Vektoren als Matrizen: inneres Produkt äußeres Produkt T ... Transpose (um Diagonale kippen) SS 2009 Maschinelles Lernen und Neural Computation

Sigmoide Transferfunktion Immer wahrscheinlicher Outputs begrenzt auf [0,1] Quasi-linear um 0 Mögliche Interpretation: Wahrscheinlichkeit SS 2009 Maschinelles Lernen und Neural Computation

Mehrebenen-Perceptron (MLP) 2 (oder mehrere) Schichten (= Verbindungen) Output Units (typisch linear) Hidden Units (typisch sigmoid) Input Units SS 2009 Maschinelles Lernen und Neural Computation

Gewichtsadaption: Backpropagation Verallgemeinerte Delta-Regel yout, xout Wout yhid, xhid Whid Fehler wird rückpropagiert „Pseudofehler“ an den Hidden Units SS 2009 Maschinelles Lernen und Neural Computation

Backpropagation als Gradientenverfahren Definiere (quadratischen) Fehler (für Muster l): Minimiere Fehler Ändere Gewichte in Richtung des Gradienten Kettenregel ergibt Backpropagation (partielle Ableitung nach dem Gewicht) SS 2009 Maschinelles Lernen und Neural Computation

Einschub: Kettenregel Differenzieren von verschachtelten Funktionen: Äußere Ableitung x innere Ableitung nur 1 Summand abh. M Wege um Gewicht zu erreichen  nur 1 Summand: usf.: SS 2009 Maschinelles Lernen und Neural Computation

Geometrische Interpretation Fehler bildet (hochdimensionale) Fläche Gradient entspricht der Richtung des steilsten Abstiegs Folge dieser Richtung bis zum Minimum SS 2009 Maschinelles Lernen und Neural Computation

Grenzen der Backpropagation Gradientenverfahren kann in lokalem Minimum hängenbleiben (abhängig von der Initialisierung)  Es ist nicht garantiert, daß Backpropagation eine existierende Lösung auch findet Weitere Probleme: langsam, kann zu oszillieren beginnen (siehe später) SS 2009 Maschinelles Lernen und Neural Computation

Praxis der Backpropagation Beginne mit zufälligen Gewichten Wähle kleine Lernrate (da sonst kein Gradientenverfahren) Nehme Satz von Trainingsmustern, die gelernt werden sollen Wähle jeweils zufällig ein Musterpaar: 1 Vorwärtsschritt, 1 Backpropagation-Schritt („online learning“) Eigentlich: definiere Fehler als (über alle M Musterpaare) berechne Gewichtsänderungen für alle Musterpaare des Trainingssatzes, summiere und ändere erst dann („batch learning“) SS 2009 Maschinelles Lernen und Neural Computation

Beispiel: Medizinische Diagnose Vienet2>uebung3.exe Beispiel: Medizinische Diagnose Bsp: Pima Indian Diabetes ftp://ftp.ics.uci.edu/pub/machine-learning-databases/pima-indians-diabetes Output: Diabetes ja/nein 768 Fälle, aufgeteilt auf Training- und Testsatz Input: 1. Number of times pregnant 2. Plasma glucose concentration at 2 hours in an oral glucose tolerance test 3. Diastolic blood pressure (mm Hg) 4. Triceps skin fold thickness (mm) 5. 2-Hour serum insulin (mu U/ml) 6. Body mass index (weight in kg/(height in m)^2) 7. Diabetes pedigree function 8. Age (years) Normalisiert auf Mittelwert 0 und Varianz 1 Performanz nach Training auf Testsatz: ca. 70-80% Fehler geht nicht auf 0! (siehe später) SS 2009 Maschinelles Lernen und Neural Computation

Einige wichtige Prinzipien Occam‘s Razor Wenn zwei Modelle die Daten gleich gut beschreiben, dann wähle das einfachere → komplexer (mächtiger) ist nicht automatisch besser Fluch der Dimension Für komplexe Lerner steigt der Bedarf an Beispielen überlinear (exponentiell) mit der Zahl der Features → nimm nur Features, die notwendig sind No free lunch Es gibt keinen Lerner, der für alle Probleme die beste Lösung liefert → wende komplexen Lerner nie blind ohne Wissen über die Daten an SS 2009 Maschinelles Lernen und Neural Computation

Die stochastische Sicht des überwachten Lernens Realdaten sind „stochastisch“ (von Natur aus mit Rauschen/Streuungen versehen) 2 Typen von Problemen: Regression, Klassifikation Lernen muss mathematisches Modell finden SS 2009 Maschinelles Lernen und Neural Computation