Präsentiert von Torben Pastuch

Slides:



Advertisements
Ähnliche Präsentationen
Cluster- Projekt Präsentiert von Dominik Henn & Torben Pastuch
Advertisements

Vortrag von Stephanie Weirauch Jens Pleger Peter Jancke Frank Wejmelka
Perceptrons and the perceptron learning rule
Adaptive Systeme Prof. Rüdiger Brause WS 2011.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Polynomial Root Isolation
Kontextfreie Grammatiken
Wilhelm-Raabe-Schule Fachbereich: Mathematik Thema: Lineare Funktionen
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
2. Kapitel: Komplexität und Komplexitätsklassen
Binnendifferenzierung im Mathematik-Unterricht der SEK II
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2012.
Simulated Annealing Marco Block & Miguel Domingo Seminar : Maschinelles Lernen und Markov KettenSommersemester 2002.
Klaus Volbert 1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität Sommersemester 2004.
1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität Einführung in Berechenbarkeit, Formale Sprachen und Komplexitätstheorie Wintersemester.
Einführung Übersicht Einsatz der Zielwertsuche Einsatz des Solvers
Numerik partieller Differentialgleichungen
FH-Hof Optimierungsverfahren für kombinatorische Probleme Richard Göbel.
Algorithmentheorie 04 –Hashing
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Einführungssitzung Architekturen interoperabler Systeme für raumzeitliche Prozesse Einführungssitzung Lars Bernard, Udo Einspanier,
Demoprogramm: Clustering Eine graphische Demonstration verschiedener Clusteringalgorithmen anhand des Clusterings von Punkten im zweidimensionalen Raum.
Entscheidungsunterstützungssysteme IWI Frankfurt 2003
K. Desch - Statistik und Datenanalyse SS05
PG 520 Intelligence Service – gezielte Informationen aus dem Internet
High Performance = Innovative Computer Systems + Efficient Algorithms Friedhelm Meyer auf der Heide 1 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen.
Algorithmen und Komplexität
Christian Schindelhauer
Christian Schindelhauer
Algorithmen des Internets 2005 HEINZ NIXDORF INSTITUT Universität Paderborn Algorithmen und Komplexität 1 Materialien zu Übung 9 Bälle in Körbe Ranged.
(Ron Rivest, Adi Shamit, Leonard Adleman , 1977)
Minimum Spanning Tree: MST
Hashverfahren und digitale Signaturen
Quaternionen Eugenia Schwamberger.
Beispielrelation Buchbestellungen H = Menge der bedeutenden Ziele = {a, d} Schwelle T = 4 Stichprobe S = {a, b, a, a, a, a} mit s = |S| = 6 N = Anzahl.
Gesichtserkennung mit Hilfe eines Neuronalen Netzes (SNNS)
The Rectilinear Steiner Tree Problem is NP-complete
Neuronale Netzwerke am Beispiel eines MLP
Machine Learning KNN und andere (Kap. 8).
Neuronale Netze 2 (Mitchell Kap. 4)
Machine Learning Was wir alles nicht behandelt haben.
Maschinelles Lernen und automatische Textklassifikation
Computergrafik – Inhalt Achtung! Kapitel ist relevant für CG-2!
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Universität Stuttgart Wissensverarbeitung und Numerik I nstitut für K ernenergetik und E nergiesysteme Numerik partieller Differentialgleichungen, SS 01Teil.
Effiziente Algorithmen
Effiziente Algorithmen
Das Leben und Wirken eine bedeuteten Mathematikers
Black Box Algorithmen Hartmut Klauck Universität Frankfurt SS
Adaptive Systeme-2 Grundlagen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
K-SAT: Ein heuristischer Algorithmen- Vergleich Kann man den Brute Force Search Algorithmus schlagen?


Radiale Basis-funktionen
teKRY409 Referat Bernet: Schlüsselmanagement
Klassifikation und Regression mittels neuronaler Netze
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Das Traveling Salesman Problem (TSP)
Nichtlineare Fisher-Diskriminanzanalyse
Lernen 1. Vorlesung Ralf Der Universität Leipzig Institut für Informatik
Projekt A4: „Alignment of Situation Models“ Dr. Gerd Rickheit Dr. Sven Wachsmuth Dr. Constanze Vorwerg Agnes Swadzba SFB-Kolloqium,
Geoinformationssysteme
EIN NEUES ENSEMBLE- KLASSIFIKATIONSVERFAHREN Tim Schneider Rotation Forest.
Focusing Search in Multiobjective Evolutionary Optimization through Preference Learning from User Feedback Thomas FoberWeiwei ChengEyke Hüllermeier AG.
Spärliche Kodierung von Videos natürlicher Szenen Vortragender: Christian Fischer.
 Präsentation transkript:

Präsentiert von Torben Pastuch am Seminar für Computerlinguistik der Uni Heidelberg Datum: 01.07.2002

CXT verwendet „Support Vector Machines“... Machine Learning Verfahren X Neuronale Netzwerke Genetische Algorithmen SUPPORT VECTOR MACHINES

Erstmals Thema 1992 auf der COLT-92 Praxisrelevante Forschung seit 1995 Findet Verwendung in folgenden Gebieten... Biometrie (z.B. Gesichtserkennung) Computerlinguistik (z.B. Textkategorisierung) Allgemein gesprochen ... „Mustererkennung“ Ermöglicht das Lernen von Klassifizierungen Kombination von mehreren bekannten Konzepten

Eine Einführung in „Support Vector Machines“ SVMs & Chunking Praxis-Demonstration: „Proof of Concept“

Fand erste Anwendung im „Perceptron“ (1956) b x-b x Fand erste Anwendung im „Perceptron“ (1956)

Es existieren relativ einfache Algorithmen Algorithmen sind schnell und massendatentauglich Nur linear separable Klassen können gelernt werden Lösung ist nicht immer ideal

x y R Hyperebene (Punkt) R Gesucht ist also

SVM hängen ausschließlich von den Skalarprodukten der Trainingsdaten ab Kernel-Funktion

Ein Beispiel für einen Kernel: Der Polynomial-Kernel

Polynomialer Kernel Radial Basis Function Kernel (RBF) Sigmoider Kernel

Nur linear separable Klassen können gelernt werden Lösung ist nicht immer ideal

w -1 +1 < 0 > 0

Berechnung der „wirklichen Breite“ 

Formalisierung der Trainingsdaten Nun ist folgendes zu erreichen: Minimiere: Unter der Bedingung, dass:

…diese Funktion Maximiere unter diesen Bedingungen

Für die Lösung gilt…

vi yi Die Trainingsdaten sind folgendermaßen aufgebaut Wort: wi-2 wi-1 wi wi+1 wi+2 POS: ti-2 ti-2 ti-2 ti-2 ti-2 yi z.B.: +1, wenn „wi ist Anfang einer NP“ Und -1, wenn „wi ist nicht Anf. einer NP“ Für die Trainingsdaten wurde der Negr@-Korpus (V2) verwendet. (ca. 10000 Sätze  ca. 170000 Wörter)

Was verursacht die Probleme beim Chunken? Es muss der „passende“ Kernel gefunden werden Es gilt, alle Parameter ideal zu wählen Der Algorithmus ist vergleichsweise langsam Komplexität: O(n2) bis O(n3)

IRChunker Output CSVM IRTagger CPoCDemo Die CSVM-Klasse ist aufgabenunabhängig. Möglichst allgemeine und effiziente Implementierung