Neuronale Netze für strukturierte Daten

Slides:



Advertisements
Ähnliche Präsentationen
Anzahl der ausgefüllten und eingesandten Fragebögen: 211
Advertisements

Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil3.
Die Projektgruppe heißt Sie herzlichst willkommen
aktueller Entwicklungsstand und weitere Perspektiven
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Webseitenranking für Suchanfragen anhand von Linkgraphen
Projekt zur Evaluation, Reaktivierung vorhandener Kenntnisse und Festigung des Arbeitens mit Größen im Mathematikunterricht mit Schülern der 7. Klassen.
Telefonnummer.
Konkurrentes Lernen AS-1
EF: Standards + H2O red = H2O.
Rechneraufbau & Rechnerstrukturen, Folie 2.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 2.
10 Die Phillipskurve Ca 6% ALQ Ursprüngliche Phillipskurve:
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil2.
Alignment in Communication SFB Aus der Sicht eines Roboters Erzeugen von Situationsmodelle für z.B. BIRON Welche Schritte sind notwendig?
Differentielles Paar UIN rds gm UIN
Prof. Dr. Bernhard Wasmayr
Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Classification of Credit Applicants Using Data Mining. Thema.
Logischen Grundverknüpfungen
Condrobs-Leitungsveranstaltung
Prof. Dr. Bernhard Wasmayr VWL 2. Semester
AWA 2007 Natur und Umwelt Natürlich Leben
Blütenbehandlung 2009–2011 (% der Anbaufläche)
Zerlegung von Quadraten und ????
Rechneraufbau & Rechnerstrukturen, Folie 12.1 © W. Oberschelp, G. Vossen W. Oberschelp G. Vossen Kapitel 12.
Machine Learning KNN und andere (Kap. 8).
Maschinelles Lernen und automatische Textklassifikation
5. Sitzung zur Wohlfahrtsanalyse II: Dualität, Marshall- und Hicksnachfrage,Shepard`s Lemma, Variationsmaße und Zusatzlast.
Prof. Dr. Günter Gerhardinger Soziale Arbeit mit Einzelnen und Familien Übersicht über die Lehrveranstaltung Grundlegende Bestimmungsfaktoren der Praxis.
Hauptversammlung Nucletron Electronic Aktiengesellschaft 6
Zusatzfolien zu B-Bäumen
DVDS, HANDYS UND EINKAUFSGUTSCHEINE:
Atelieranbau Krimmel Darmstadt
Eine Einführung in die CD-ROM
Dokumentation der Umfrage
Physik Geschichte Geografie Chemie Biologie crede quod habes, et habes
Wir üben die Malsätzchen
Überblick Statistik Deskriptive Statistik=beschreibende Statistik



Das entscheidende Kriterium ist Schönheit; für häßliche Mathematik ist auf dieser Welt kein beständiger Platz. Hardy.
Der Ablauf eines Clear Rex Klärzyklus
„Schmerzfreies Krankenhaus“
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
Hafenbetriebskommission Cham
L.O.C. Mehrzweckreiniger 1 l Konzentrat 9,00 € ( GP 6,91 €)
Geometrische Aufgaben
Eine lllustration der Herausforderungen des Stromsystems der Zukunft
MR-Mammographie beim vererbbaren Mammakarzinom
Primarschule Raron 5. Klasse
Szenisches Lernen Wie Theaterelemente den Unterricht bereichern
IT meets science1 Lernende Software Priv.Doz. Dr. Barbara Hammer, Forschernachwuchsgruppe Lernen mit Neuronalen Methoden auf Strukturierten Daten,
Zahlentheorie und Zahlenspiele Hartmut Menzer, Ingo Althöfer ISBN: © 2014 Oldenbourg Wissenschaftsverlag GmbH Abbildungsübersicht / List.
MINDREADER Ein magisch - interaktives Erlebnis mit ENZO PAOLO
Spannungsfeld Krankenhaus

Beispiel 1.4 Ein Kreditinstitut bietet folgende Varianten für die vertragliche Gestaltung eines Kontokorrentkredits an: Nettozinssatz 10 % p.a Zinssatz.
Parkplatz-Orga Diese Version ist vom finale Version!
Qualifizierungsprogramm für Mitarbeiter der LIP- Anlage
Folie Beispiel für eine Einzelauswertung der Gemeindedaten (fiktive Daten)
Forschungsprojekt Statistik 2013 „Jugend zählt“ – Folie 1 Statistik 2013 „Jugend zählt“: Daten zur Arbeit mit Kindern und Jugendlichen.
SPC – Aufgabenstellung 1
Gedankenlesen Durch Studien fand man heraus, dass Gedanken in einem gewissen Maße lesbar sind.
Folie Einzelauswertung der Gemeindedaten
Datum:17. Dezember 2014 Thema:IFRS Update zum Jahresende – die Neuerungen im Überblick Referent:Eberhard Grötzner, EMA ® Anlass:12. Arbeitskreis Internationale.
SS 2009Maschinelles Lernen und Neural Computation 107 Kapitel 6: Unüberwachtes Lernen.
Geoinformationssysteme
TU Darmstadt FB 20 Informatik Bayes Decision Theory von Martin Tschirsich, Shuo Yang & Zijad Maxuti Hausübung 5: Erläuterung Anwendung.
Einführung Grundlagen Zwischenfazit Deep Learning Probleme Fazit
 Präsentation transkript:

Neuronale Netze für strukturierte Daten Antrittsvorlesung zur Habilation, Barbara Hammer, AG LNM, Universität Osnabrück 10.12.2003 Antrittsvorlesung

Vektor 10.12.2003 Antrittsvorlesung

Übersicht Lernende Vektorquantisierung und Relevanzlernen LVQ RLVQ Anwendungen Large margin Weitere Ansätze 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen … 10.12.2003 Antrittsvorlesung

LVQ … 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - LVQ Kohonen  10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - LVQ Lernende Vektorquantisierung (LVQ) [Kohonen]: überwachtes selbstorganisierendes Klassifikationsverfahren Netz gegeben durch Prototypen (wi,c(wi)) ∈ ℝn x {1,…,m} Klassifikation ℝn∋x  c(wj)∈{1..m} mit |x-wj| minimal Hebbsches Lernen anhand von Beispieldaten (xi,c(xi)) i.e.ziehe xi und adaptiere den Gewinner wj: wj := wj ± η·(xi-wj) 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - LVQ Beispiel: unterscheide Äpfel von Birnen Repräsentation als Vektor ( Øx/Øy , Härte ) in ℝ2 x1 x2 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - LVQ Problem: LVQ basiert auf der Euklidischen Metrik.  Probleme bei vielen und unterschiedlich relevanten Dimensionen 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - LVQ Dramatisches Beispiel dieses Problems: 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - LVQ Dieses tritt insbesondere bei als Vektor kodierten komplexen Strukturen auf. (mittlere Anzahl Nachbarn, minimale Anzahl Nachbarn, maximal Anzahl Nachbarn, Anzahl von gegebenen Subgraphen, topologische Indizes, ... Farbe der Knoten) 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - LVQ Kohonen, wenn er diesen Vortrag hören würde…  10.12.2003 Antrittsvorlesung

RLVQ … 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - RLVQ Relevanzlernen: ersetze die Euklidische Metrik durch eine Metrik mit adaptiven Relevanzfaktoren adaptiere die Relevanzfaktoren durch Hebbsches Lernen:  Relevanz LVQ 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - RLVQ Generalisiertes RLVQ – adaptive Relevanzfaktoren in GLVQ, Adaptation als stochastischer Gradientenabstieg gewichteter quadratischer Abstand zum nächsten korrekten/falschen Prototypen minimiere  10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - RLVQ Wir bzw. Kohonen, wenn er‘s wüßte …  10.12.2003 Antrittsvorlesung

Anwendungen … 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen Erkennung von Fehlzuständen bei Kolbenmaschinen PROGNOST 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen Detektion aufgrund hochdimensionaler und heterogener Daten: Sensoren liefern zeitabhängige Daten: Druck, Oszillation, ... Prozeß Charakteristika, Merkmale des pV Diagramms, … Sensorik 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen Typische Datenlage: 30 Zeitreihen mit je 36 Einträgen 20 Analysewerte über ein Zeitintervall 40 globale Merkmale 15 Klassen, 100 Trainingsmuster Maschine LVQ Experten-LVQ GRLVQ 1, Train Test 69.6 (64.8-71.9) 66.7 (65.3-69.8) 91.6 (89.1-92.4) 81.6 (75.2-83.4) 98.2 (96.3-100) 97.2 (93.5-100) 2, Train 72.3 (68.4-74.3) 65.3 (62.5-67.2) 92.1 (88.3-97.2) 84.5 (74.2-86.3) 99.1 (98.4-100) 97.7 (97.6-100) 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen … Prognost  10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen Prognose von Splice-Stellen: Kopie der DNA branch site A64G73G100T100G62A68G84T63 C65A100G100 reading frames 18-40 bp pyrimidines, i.e. T,C donor acceptor ATCGATCGATCGATCGATCGATCGATCGAGTCAATGACC nein ja 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen IPsplice (UCI): menschliche DNA, 3 Klassen, ca.3200 Punkte, Fenstergröße 60, alt C.elegans (Sonneburg et al.): nur acceptor/decoys, 1000/10000 Trainingspunkte, 10000 Testpunkte, Fenstergröße 50, decoys liegen nahe an acceptors GRLVQ mit wenigen Prototypen (8 / 5 pro Klasse) geänderte Metrik: LIK lokale Korrelationen 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen IPsplice: GRLVQ HMM SVM-LIK SVM-TOP SVM-FK BRAIN BP LIN ID3 96.5 94 96.3 94.6 94.7 87 78.3 62.3 66.6 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen GRLVQ HMM SVM-LIK SVM-TOP SVM-FK 1000 95.2 97.2 94.8 95.4 96.5 10000 95.7 97.4 96.1 97.7 97.5 C.elegans: ... GRLVQ erlaubt kom-pakte Modelle, Aufwand linear in Bezug auf die Trainingsdaten 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen - Anwendungen … die Biologen  10.12.2003 Antrittsvorlesung

Large margin … 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen – large margin   F := durch GRLVQ mit p Prototypen berechnete binäre Klassifikationen (xi,yi)i=1..m Trainingsdaten, i.i.d. gemäß Pm f in F Ziel: EP(f) := P(y≠f(x)) soll klein sein Lernalgo. 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen – large margin Ziel: EP(f) := P(y≠f(x)) soll klein sein Lerntheorie: EP(f) ≤ |{ i | yi≠f(xi)}| + strukturelles Risiko Für GRLVQ gilt: EP(f) ≤ |{ i | yi ≠ f(xi)}| + Ʃ0<Mf(xi)<ρ(1-Mf(xi)/ρ) + O(p2(B3+(ln 1/δ)1/2)/(ρm1/2)) wobei Mf(xi) := - dλ+(xi) + dλ-(xi) der margin ist (= Sicherheit) dimensionsunabhängige large-margin Schranke! GRLVQ optimiert den margin: empirischer Fehler wird im Training optimiert wie sicher legen m Trainingsdaten die Funktion fest Trainingsfehler Punkte mit zu kleinem margin Schranke in Abhängigkeit von m = Anzahl Daten p = Anzahl Prototypen, B = Träger, δ = Konfidenz ρ = margin 10.12.2003 Antrittsvorlesung

Lernende Vektorquantisierung und Relevanzlernen – large margin Wir  10.12.2003 Antrittsvorlesung

Weitere Ansätze … 10.12.2003 Antrittsvorlesung

Weitere Ansätze Rekursive Verarbeitung von beliebig langen Sequenzen reeller Vektoren A T C G … 10.12.2003 Antrittsvorlesung

Weitere Ansätze Rekursive Verarbeitung von Bäumen und DPAGs: gerichtete positionierte azyklische Graphen mit beschränkter Anzahl Nachfolger/Vorgänger und einem Wurzelknoten a b e h d 10.12.2003 Antrittsvorlesung

Weitere Ansätze Ich  10.12.2003 Antrittsvorlesung

Weitere Ansätze 10.12.2003 Antrittsvorlesung

Weitere Ansätze SVM Komplexität Lernbarkeit GRLVQ + SOM, Datamining Schriftzeichenerkennung Satellitendaten Zeitreihenprognose Kernelisierung Neural Gas Regelextraktion Rekursive Netze Rekurrente Netze SOM, Datamining .. und weitere Nullmengen  10.12.2003 Antrittsvorlesung

Thanks!!! Birmingham Berlin Thorsten Bojer Prognost Peter Tino Rheine Brijnesh Jain os Biele Leipzig Jochen Steil Helge Ritter Tina  Houston Marc Strickert Kai Gersmann OR-Gruppe Theo.Inf. Gatersleben Thomas Villmann Erzsebeth Merenyi Udo Seiffert Hyderabad Illinois Padua Pisa Bhaskar DasGupta Matukumalli Vidyasagar Alessandro Sperduti Alessio Micheli Thanks!!! 10.12.2003 Antrittsvorlesung

10.12.2003 Antrittsvorlesung