Praxisteil Seminar experimentelle Evaluierung in IR WS05/06 Gruppe A.

Slides:



Advertisements
Ähnliche Präsentationen
Imperative Programmierung
Advertisements

Ebru Iscan, Andrea Kováčová Experimente Seminar "Experimentielle Evaluierung im IR"
Praktischer Teil des Seminars
Seminar Experimentielle Evaluierung im Information Retrieval Aufgabenstellung, Ablauf, Probleme, Lösungen und Ergebnisse des Experiments Martin Jansson.
Anzahl der ausgefüllten und eingesandten Fragebögen: 211
Finasterid 1 mg (PROPECIA) bei der
Martin Böhmer/Dennis Treder/Marina Schwacke Übungen zu Automatisches Zeichnen von Graphen Ausgabe: Besprechung: Gruppe 2 - Übungsblatt.
Seminar Textmining WS 06/07 Aufgaben V Bemerkung zu clustering Probabilistic IR Indexierung von Dokumenten Thesauri.
Seminar Textmining WS 06/07 Aufgaben II 1.Dokumente im VSM 2.Ranking 3.Term-Term-Korrelation 4.Relevance Feedback 5.Termgewichtung.
Seminar Textmining WS 06/07 Aufgaben III Termgewichtung Postings Datei Clustering.
Seminar Textmining WS 06/07 Aufgaben I 1.Metadaten 2.Einfache Inverse Liste 3.Modifizierte Inverse Liste für komplexere Anfragen 4.Boolsches Retrieval.
Seminar Textmining WS 06/07
3. Kapitel: Komplexität und Komplexitätsklassen
der Universität Oldenburg
Eine Semesterarbeit von Sebastian Galenski (2. Semester – WWI 00 B) SQL Query Result Caching Oder wie man häufig gestellte Datenbankabfragen performanter.
Sortierverfahren Richard Göbel.
Sortierverfahren Richard Göbel.
FH-Hof Effizienz - Grundlagen Richard Göbel. FH-Hof Inhalt Einführung Aufwand für Anfragen ohne Indexierung Indexstrukturen für Anfragen an eine Tabelle.
Anfragesprachen – Dipl. Ing. Ulrich Borchert / FH Merseburg1/7 Information Retrieval auf Texten An ihre Grenzen stoßen relationale Datenbanken bei der.
ARRAY oder FELD oder VEKTOR
V AdresseWert public static void main(...){ int[] v; v=new int[2]; } Was veranlasst diese Anweisung im Arbeitsspeicher ? Es wird im Arbeitsspeicher.
Prof. Dr. S. Albers Prof. Dr. Th. Ottmann
Information Retrieval Modelle: Vektor-Modell
Erweiterte Fassung Karin Haenelt, IR-Evaluierung Evaluierung von Information Retrieval Systemen Kursfolien Karin Haenelt.
Text-Retrieval mit Oracle Vortrag von Andreas Mück & David Diestel.
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil2.
Software-Engineering
Brandenburgische Technische Universität Cottbus Program Profiling Andrzej Filipiak Übung Testen von Software SoSe 2006.
Prof. Dr. Bernhard Wasmayr
Relevanz Ranking Bisher: Sind wir davon ausgegangen, dass das Ergebnis des Rankings des statistischen Verfahrens in den Index geschrieben wird und dem.
Datenmanagement in Sensornetzen PRESTO - Feedback gesteuertes Datenmanagement - SS 2007 Sören Wenzlaff.
Beispielrelation Buchbestellungen H = Menge der bedeutenden Ziele = {a, d} Schwelle T = 4 Stichprobe S = {a, b, a, a, a, a} mit s = |S| = 6 N = Anzahl.
Dieter Bergmann, Lichtenfels
Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
Classification of Credit Applicants Using Data Mining. Thema.
Einführung in die Prozentrechnung
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Nützlichkeit statistischer Phrasen in der Textklassifikation
Productivity Performance Profitability ISCAR's Philosophie Partner zur Produktivitätssteigerung.
Evaluierung von Information Retrieval Systemen Teil 2: TREC – Million Query Track Karin Haenelt
Computational Thinking Suchen und Sortieren [Ordnung muss sein…]
Polynome und schnelle Fourier-Transformation
Exponentielles Wachstum
XML-Query. Übersicht Was ist XML-Query? Vergleich RDB XML-Dokument Syntaktisches und Use-Cases Kritik und Diskussion.
Adaption von K-Means Algorithmen an Datenbanken
Getting Started Persistente Domänenmodelle mit JPA 2.0 und Bean Validation.
PROCAM Score Alter (Jahre)
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
Einführung in die Prozentrechnung
Szenisches Lernen Wie Theaterelemente den Unterricht bereichern
MINDREADER Ein magisch - interaktives Erlebnis mit ENZO PAOLO
Using latent semantic analysis to find different names for the same entity in free text Präsentation und Diskussion des Papers Im Rahmen des PS Web-Information.
Arrays und ArrayLists In JAVA.
Folie Beispiel für eine Einzelauswertung der Gemeindedaten (fiktive Daten)
Information Retrieval, Vektorraummodell
Programmiervorkurs WS 2014 Referenzdatentypen
SFZ FN Sj. 13/14 Python 3 Rekursion Inf K1/2 Sj 13/14
Projekt Messendorferstraße Graz TOP 1-33 /EG Wohnhaus 1 Grundstück 2 Schlafen10,28 m² Wohnen /Kochen 15,35 m² Diele 2,50 m² Bad mit WC 4,40m² Terrasse.
Orientierung im Zahlenraum 100
Arrays und ArrayLists In JAVA.
Folie Einzelauswertung der Gemeindedaten
Der große Preis der … Datum
Mehrfachausführungen Schleifen in VB 2010 ee. Programmidee: Der Anwender gibt eine Zahl ein, und das Programm gibt die Mehrfachen dieser Zahl aus (das.
Datum:17. Dezember 2014 Thema:IFRS Update zum Jahresende – die Neuerungen im Überblick Referent:Eberhard Grötzner, EMA ® Anlass:12. Arbeitskreis Internationale.
Die Übersetzung von “Diskursdialekten” für die Suche: Das Mapping zwischen Fachsprachen und Indexierungssprachen Vivien Petras Vortrag im Berliner Bibliothekswissenschaftlichen.
Inhaltserschliessung ein Beispiel A Bibliographic Search by Computer Updating plasma-physics data was a chance to experiment with information and programs.
The Interlisp programming environment Serife Sancar – December.2004.
Niko Zenker1 Besondere Aspekte in Multimedia-Datenbanken Methoden zur iterativen Anfrageverfeinerung (Relevanz Feedback)
Suchen und Sortieren.
Einführung: Statistische Verfahren der automatischen Indexierung
 Präsentation transkript:

Praxisteil Seminar experimentelle Evaluierung in IR WS05/06 Gruppe A

Experimental setup Collections: TREC-123, wt10g Index:BM25 und TFIDF Queries: -Topics aus trec123.topics (für den ersten Teil) -Topics ,... Aus wt10g.topics.1000 (100 aus 1000 Topics für den zweiten Teil)

Aufgabenstellung Experiment (1) DTF vs. DTF max. 5 DL vs. DTF max. 10 DLs BM 25 vs. TF.IDF c=0.5 P0=0.5 vs. P0=1 Experiment (2) DTF vs. DTF max. 10 DLs c=0.5 vs. c=1 P0=1

Vorgehensweise Indexierung Resource description Kostenberechnung Resource selection

Vorgehensweise Indexierung eigentliche Inhalte rausnehmen und zusammen mit Dokument-ID in PIRE speichern

Vorgehensweise Indexierung (cont.) Show tables from exp_a like ap88%; | ap88_8c_text_stemen_bm25_dl | | ap88_8c_text_stemen_bm25_docid | | ap88_8c_text_stemen_bm25_expectation | | ap88_8c_text_stemen_bm25_idb_rd | | ap88_8c_text_stemen_bm25_rd | | ap88_8c_text_stemen_bm25_tf | | ap88_8c_text_stemen_bm25_tmp1 | | ap88_8c_text_stemen_bm25_variance | | ap88_8c_text_stemen_bm25_weight | | ap88_8c_text_stemen_tfidf_df | | ap88_8c_text_stemen_tfidf_dl | | ap88_8c_text_stemen_tfidf_docid | | ap88_8c_text_stemen_tfidf_expectation | | ap88_8c_text_stemen_tfidf_idb_rd | | ap88_8c_text_stemen_tfidf_maxTF | | ap88_8c_text_stemen_tfidf_rd | | ap88_8c_text_stemen_tfidf_tf | | ap88_8c_text_stemen_tfidf_tmp1 | | ap88_8c_text_stemen_tfidf_variance | | ap88_8c_text_stemen_tfidf_weight |

Vorgehensweise Resource description

Vorgehensweise Resource selection

Vorgehensweise Resource selection ResourceSelection{ GenericDL[ap88_4c]=[num=50,costs= ], Generic DL[ap88_4a]=[num=71,costs= ], GenericDL[ap88_2c]=[num=41,costs= ], GenericDL[ap88_3a]=[num=42,costs= ], GenericDL[ap88_4b]=[num=96,costs= ]} ResourceSelection{ GenericDL[ap88_3b]=[num=62,costs= ], GenericD L[ap88_4a]=[num=55,costs= ], GenericDL[ap88_2c]=[num=56,costs= ], GenericDL[ap88_3a]=[num=58,costs= ], Gene ricDL[ap88_1b]=[num=69,costs= ]}...

Vorgehensweise Resource selection (Durchlaufen von 100 Topics): Relevanzurteile: (DTF5, bm25) AP AP AP AP AP AP AP …

BM25 vs. TFIDF BM25 - Ein Ranking Modell - Die Performance von BM25 Ranking Algorithmus ist sehr abhängig von der Auswahl der Parameter. - Dieses Modell ist nur dann möglich wenn die Dokumentkollektionen, die Anfragenmenge und die Menge von dem Relevanzurteil vorher schon vorhanden sind. TF-IDF -TF: Term Frequency -IDF: Inverse Document Frequency log(N/DF) N: Gesamtzahl der Dokumente der Kollektion DF: Dokumentfrequenz = Anzahl Dokumente, in denen Term i auftritt

BM25 vs. TFIDF (cont.) BM25 TFIDF

Trec_eval (Bsp.) Queryid (Num): 100 Total number of documents over all queries Retrieved: Relevant: Rel_ret: 2030 Interpolated Recall - Precision Averages: at at at at at at at at at at at Average precision (non-interpolated) for all rel docs(averaged over queries) Precision: At 5 docs: At 10 docs: At 15 docs: At 20 docs: At 30 docs: At 100 docs: At 200 docs: At 500 docs: At 1000 docs: R-Precision (precision after R (= num_rel for a query) docs retrieved): Exact:

Ergebnisse

DTF vs. DTF5 vs. DTF10 (BM 25, c = 0.5, P0=1) Evaluation: fixed number of selected DLs (BM25)

DTF vs. DTF5 vs. DTF10 (BM 25, c = 0.5, P0=1)

Evaluation: fixed number of selected DLs (BM25)

DTF vs. DTF5 vs. DTF10 (TFIDF, c = 0.5, P0=1)

Evaluation: fixed number of selected DLs (TFIDF)

Ergebnisse (BM25 vs. TFIDF) Run Number of retrieved relevant documents Average Precision R Precision BM25, DTF 2489 out of TFIDF, DTF 2030 out of BM25, DTF out of TFIDF, DTF out of BM25, DTF out of TFIDF, DTF5 767 out of

Parameterauswahl Die Veränderung von dem Parameter p0 wird die gesamten Retrievalergebnisse nicht beeinflussen. Die Veränderung von c führt aber zur Änderung der Retrievalqualität. Run Number of retrieved relevant documents Average Precision R Precision TFIDF, DTF10 c = out of TFIDF, DTF10 c = out of

Experiment Teil2 Fast gleicher Code für Retrieval Unterschiedliche Topics Änderung von Operator (plain statt stemen_bm25 oder stemen_tfidf) Größere Kollektionsmenge

Probleme (1)ArrayIndexOutOfBounds Exception bei ComputeForTopic Grund: Ohne Indexierung und Resource Description können Kosten nicht berechnet werden und somit ist costs leer. Intern löst das dann die ArrayIndexOutOfBoundsException aus. Lösung: Erst Indexierung, um die Datenbanken zu erzeugen. (2) Bei jedem Durchlauf des Programms erscheint immer dasselbe Ergebnis in der Result Datei. Grund: Jedes mal werden die Ergebnisse immer wieder an der Datei angehängt. Lösung: Man muss die Datei jedes mal leeren oder man kann bei jedem Durchlauf eine neue Datei mit anderem Namen auswählen.

Probleme (cont.) (3)Bei dem zweiten Teil wurden nur leere Menge bei Resource Selection geliefert. Grund: Zu jeder Kollektion wurden PIRE nicht richtig erzeugt, so dass Resource Description nicht richtig funktioniert hat. Lösung: Bei DTFPDatalogConfig exp_ durch wt10g_ ersetzen (4)Nachdem die codes geändert worden sind, wurde komischerweise ein java.lang.OutOfMemoryError geliefert... Grund: Das hat irgendwie mit Speicher von Heap zu tun... Lösung: ?

Zusammenfassung DTF: - guter Ranking Algorithmus - abhängig von der Anzahl der zu selektierenden DLs - bessere Ergebnisse – ohne Beschränkung auf die Anzahl der zu selektierenden DLs Bei BM25 können im Vergleich zu TFIDF bessere Ergebnisse geliefert werden. Die Recall-Precision Funktion p0 hat keinen Einfluss auf die Retrievalergebnisse. Eine Erhöhung von der linearen mapping Funktion c führt aber zur Verbesserung der Retrievalqualität. Wie kann man die Ergebnisse noch verbessern? -> Relevance Feedback, DTF-cori

Vielen Dank für die Aufmerksamkeit!