INFORMATION RETRIEVAL (IR)

Slides:



Advertisements
Ähnliche Präsentationen
Kohonennetze für Information Retrieval mit User Feedback
Advertisements

Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Vorlesung Programmieren II
Claudio Moraga; Gisbert Dittrich
Zugehörigkeitsfunktion (Wahrheitsfunktion) m
Prof. Dr. W. Conen 15. November 2004
Seminar Textmining WS 06/07 Aufgaben V Bemerkung zu clustering Probabilistic IR Indexierung von Dokumenten Thesauri.
Seminar Textmining WS 06/07 Aufgaben II 1.Dokumente im VSM 2.Ranking 3.Term-Term-Korrelation 4.Relevance Feedback 5.Termgewichtung.
Seminar Textmining WS 06/07 Aufgaben III Termgewichtung Postings Datei Clustering.
Seminar Textmining WS 06/07
Seminar Textmining WS 06/07 Aufgaben IV Postings Datei Clustering Probabilistisches Information Retrieval.
Default Logiken Zhao Li
5. Sortier-Algorithmen Vorbemerkungen:
Inhaltlich orientierter Zugriff auf unstrukturierte Daten
Seminar „Extrapolationsmethoden für zufällige Felder“
Kapitel 4 Datenstrukturen
Ein Modellansatz zur Beschreibung von Vagheiten
Christian Schindelhauer
Wissensmanagement mit semantischen Netzen – Analyse und Vergleich verschiedener Softwarelösungen Autor: Holger Wilhelm Referentin: Prof. Dr. Uta Störl.
Java: Objektorientierte Programmierung
Anfragesprachen – Dipl. Ing. Ulrich Borchert / FH Merseburg1/7 Information Retrieval auf Texten An ihre Grenzen stoßen relationale Datenbanken bei der.
Anfragesprachen – Dipl. Ing. Ulrich Borchert / FH Merseburg1/8 Thesauren In gewisser Weise bilden Thesauren (Singular Thesaurus, Plural auch Thesauri)
Anfragesprachen – Dipl. Ing. Ulrich Borchert / FH Merseburg1/5 Grundtechniken des Information Retrieval Deskribierung Hierunter versteht man eine manuelle.
REKURSION + ITERATION.
Algorithmentheorie 04 –Hashing
Suche in Texten: Suffix-Bäume
WS Algorithmentheorie 05 - Treaps Prof. Dr. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
1 Vorlesung Informatik 2 Algorithmen und Datenstrukturen (21 – Kürzeste Wege) T. Lauer.
WS Prof. Dr. Th. Ottmann Algorithmentheorie 09 - Suche in Texten Suffix - Bäume.
Fakten, Regeln und Anfragen
Information Retrieval Modelle: Vektor-Modell
Theorie soziotechnischer Systeme – 11 Thomas Herrmann Informatik und Gesellschaft FB Informatik Universität Dortmund iundg.cs.uni-dortmund.de.
Universität Dortmund, Lehrstuhl Informatik 1 EINI II Einführung in die Informatik für Naturwissenschaftler und Ingenieure.
Beispiele für Ausdrucksalgebren
MMQL – Multimedia Query Language Eine Anfragesprache für Multimedia-Ähnlichkeitsanfragen Christian Mantei.
Christian Schindelhauer
Christian Schindelhauer
Christian Schindelhauer
Access 2000 Datenbanken.
Spree SoSe 2011 Clustering – Wie Maschinen die Ähnlichkeit von Dokumenten erkennen.
3 Prinzipien des Information Retrieval
Datenbankentwurfsprozess
§9 Der affine Raum – Teil 2: Geraden
Spezifikations- und Selektionsmethoden für Daten und Dienste
Fuzzy Logic and Rough Sets Jens Grabarske, Gunter Labes
Vorlesung Biometrie für Studierende der Veterinärmedizin Begriff der Zufallsgröße Ergebnisse von Zufallsexperimenten werden als Zahlen dargestellt:
Entitäten Extraktion Einführung
PRJ 2007/1 Stefan Dissmann Verkettete datenstruktur: Liste Problem: Liste, die eine beliebige Zahl von Elementen verwaltet Operationen: Erzeugen, Anfügen,
Neue variable Lernkontrollen mit Diagnose und Förderplanung
§24 Affine Koordinatensysteme
Nachtragsfall 1: Leistungsänderung
Folie 1 Kapitel IV. Matrizen Inhalt: Matrizen als eigenständige mathematische Objekte Zusammenhang zwischen Matrizen und linearen Abbildungen Produkt von.
§23 Basiswechsel und allgemeine lineare Gruppe
§3 Allgemeine lineare Gleichungssysteme
Polynome und schnelle Fourier-Transformation
Formale Sprachen Grammatiken und die Chomsky-Hierarchie
Engineering tools for the NEO engineer
Generalisiertes Vektorraummodell (Generalized Vector Space Model, GSVM) Karin Haenelt
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Arne Vater Wintersemester 2006/ Vorlesung
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Information Retrieval, Vektorraummodell
Einführung Dateisystem <-> Datenbanksystem
Literary Machines, zusammengestellt für ::COLLABOR:: von H. Mittendorfer Literary MACHINES 1980 bis 1987, by Theodor Holm NELSON ISBN
Niko Zenker1 Besondere Aspekte in Multimedia-Datenbanken Methoden zur iterativen Anfrageverfeinerung (Relevanz Feedback)
Rules of Play - Game Design Fundamentals by Katie Salen and Eric Zimmerman Universität zu Köln Historisch-Kulturwissenschaftliche Informationsverarbeitung.
Programmiersprachen II Vorbesprechung Klausur Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
Lineare Algebra II (MAVT)
 Präsentation transkript:

INFORMATION RETRIEVAL (IR) Begriffsbildung für Daten/ Wissen/ Information Daten  Syntaktisch definierte Verfahren der Datenverarbeitung  Wissen  Semantisch begründete Verfahren der Wissensrepräsentation Information  Pragmatisch kontrollierte Informationserarbeitung zur informationellen Handlungsabsicherung ("Information ist Wissen in Aktion", im Unterschied zur nachrichtentechnischen Orientierung des Shannonschen Informationsbegriffs)

Grundprinzip des IR: Gegeben: Informationsbedürfnisse und Informationssammlungen (irgendeiner Art) Ziel des IR: geeignete Abbildungsfunktion, die zu beliebigen Informationsbedürfnissen eine passende Auswahl in der Informationsmenge vornimmt. Dabei spielen unter anderem eine Rolle: Formulierungsprozeß für Informationsbedürfnisse durch den Benutzer oder automatisch durch das System (automatic query formulation) Abbildung des Informationsbedürfnisses auf eine interne Repräsentation Abbildung der Dokumente auf eine interne Repräsentation (z.B. invertierte Datei) Ähnlichkeitsfunktion für die internen Repräsentationen von Dokumenten und Anfragen (Indexierungssprache)

Definitionen (1) Information Retrieval (IR) is concerned with the representation, storage, organization, and accessing of information items. In principle, no restriction is placed on the type of item handled in information retrieval. In actuality, many of the items found in ordinary retrieval systems are characterized by an emphasis on narrative information. (Salton & McGill 1983:1f.). Information retrieval is concerned with the processes involved in the representation, storage, searching and finding of information which is relevant to a requirement for information desired by a human user (Ingwersen 1992:49).

Definitionen (2) Im Information Retrieval (IR) werden Informationssysteme in Bezug auf ihre im Prozess des Wissenstransfers vom menschlichen Wissensproduzenten zum Informations- Nachfragenden betrachtet. [ ... ] Die Darstellungsform des in einem IR-Systems gespeicherten Wissens ist im Prinzip nicht beschränkt (z. B. Texte, multimediale Dokumente, Fakten, Regeln, semantische Netze). Die Unsicherheit (oder die Unvollständigkeit) dieses Wissens resultiert meist aus der begrenzten Repräsentation von dessen Semantik [ ... ]. Aus dieser Problematik ergibt sich die Notwendigkeit zur Bewertung der Qualität der Antworten eines Informationssystems, wobei in einem weiteren Sinne die Effektivität des Systems in Bezug auf die Unterstützung des Benutzers bei der Lösung seines Anwendungsproblems beurteilt werden sollte. ( GI-FACHGRUPPE IR (1991). Beschreibung von Aufgaben und Zielen, zitiert nach FUHR 1993)

Definitionen (3) [ ... ] information science is concerned with, at least in part, the issues of how and why people engage in information-seeking behavior, and of how they use information [ ... ] (BELKIN 1990 ) The explicit consequences of this view are that: the goal of the IR system is to support the user in her / his entire range of information-seeking behaviors; the user must be considered the central component of the IR system; and interaction [ ... ] is the central process of IR (BELKIN 1993). [ ... ] computerized information retrieval has been limited by many factors, such as storage capacitiers, [ ... ] costs of capturing data, and the practices of the publishing industry. With improvements in technology, we can break through these limitations, and manage large digital libraries of multimedia objects [ ... ] (FOX 1993).

Problem

Modelle des Information Retrieval Formalisierung der IR-Modellierung Ausgangspunkt sind eine Menge von Dokumenten D und eine Menge von Anfragen Q. Von zwei Seiten lässt sich eine Beziehung zwischen Dokumenten und Anfragen herstellen: Benutzerseite: Der Benutzer führt Relevanzbewertungen durch und gibt damit an, welche Dokumente bezüglich einer Anfrage als (nicht) relevant einzuschätzen sind, dargestellt als Menge R der Relevanzbewertungen. Systemseite: Das System selektiert als Antwort auf eine Anfrage Q eine (möglicherweise leere) Untermenge  der Dokumente. Dabei kommt eine Retrievalfunktion  zum Einsatz.

System: semantische Repräsentation (D bzw. Q) Für die Verarbeitung der Dokumente und Anfragen werden semantische Repräsentationen verwendet, die durch die Abbil-dungen D (Indexierung) Q (Formalisierung der Anfrage) gewonnen werden. Intern sind Dokumente durch Dokumen-tenbeschreibungen DD, Anfragen durch logische Frage-Repräsentationen QD dargestellt. Ziel eines IRS: Deckungsgleichheit zwischen  und R, d.h. das System soll aus der Dokumentenmenge die und nur die Dokumente selektieren, die der Benutzer bezüglich seiner Anfrage als relevant erachtet. Es ergibt sich folgendes Schema: D D Q Q Retrieval-funktion  D Q D Q DD QD Relevanz- bewertung R 

Es werden also immer drei Ebenen unterschieden: (ursprüngliche) Fragen und Dokumente (bzw. Antwortmengen) deren Beschreibung (semantische Sicht, formalisierte Anfrage) die interne Beschreibung von Anfragen und Dokumenten (Fragelogik, Objektattribute für Dokumente) Notation: qk Frage qk Frage-Repräsentation qkD (interne) Fragebeschreibung dm Dokument m dm semantische Dokumentbeschreibung dmD Interne Dokumentenrepräsentation Dokumentbeschreibung als Menge/Vektor von Indexierungsgewichten

Um die Dokumentenbeschreibungen zu erstellen, verwendet man i.d.R. ein Indexierungsvokabular T = {t1, ..., tn}, das aus Grundformen (Termen) besteht (vgl. unten Automatische Indexierung), wo bei die Beschreibung sowohl manuell wie automatisch erstellt werden kann. Üblich sind auch Mischformen, wo zu einer automatischen Indexierung des Volltextes eine manuelle Beschlagwortung hinzukommt.

Vergleich der wichtigsten IR-Modelle Überblick nach Fuhr 1997:Kap-5.2 Modell BOOLEsches Vector Probability Fuzzy Clustering Retrieval Space Basis BOOLEsche Vektor- Wahrschein- Theorie Vektor- Logik algebra lichkeits- unscharfer algebra theorie Mengen Bezug zur — --- + ( + ) --- Retrieval- qualität Gewichtete Indexierung — + + + + Anfrageterme — + + (+) + Anfrage- struktur BOOLEsch linear linear BOOLEsch N/A modus Suchen Suchen Suchen Suchen Browsen

Exsample of Boolean IR system

Boolesches Retrieval Beim Booleschen Retrieval gibt es keine Indexierungsgewichte, d.h. jeder Term ist einem Dokument zugeordnet oder nicht (0,1), bzw. formal: Die Fragebeschreibungen und Retrievalfunktion lassen sich wie folgt rekursiv aufbauen: Frage-beschreibungen QD

Die Retrievalfunktion  ergibt sich dann zu: Wertemenge der Retrievalfunktion  : {0,1}, d.h. die Anfrage hat ein positives oder negatives Ergebnis. Basis der Bewertung: Dokument-Termvektoren, bei denen für jedes Dokument verzeichnet ist, ob es durch einen Term indexiert ist (1) oder nicht (0).

Jede Anfrage teilt die Dokumentenbasis in zwei Mengen: Diejenigen Dokumente, die die Retrievalfunktion einer Anfrage zuordnet und diejenigen, die sie ihr nicht zuordnet. Ausgehend von dieser Trennung leiten sich auch die klassischen Bewertungsmaße in der IR-Evaluierung ab (siehe unten ausführlicher). Hohe Mächtigkeit: Man kann zeigen, daß sich für eine Dokumentenmenge D Anfragen konstruieren lassen, die jede beliebige Teilmenge aus D selektieren. Nachteile: Binäre Zuordnung, Komplexität der Booleschen Algebra, kein Ranking formale Anfragesprache

Die Abarbeitung von Booleschen Anfragen kann über einfache Operationen zum Verschmelzen von Listen (Implementierung von Funktionen für Schnitt- und Vereinigungsmengenbildung) erfolgen; Details im Kap. Implementierung). Praktisches Beispiel nach Salton 1989 Anfrage ((T1 ODER T2) UND NICHT T3) Einträge in der invertierten Datei T1: {D1, D3} T2: {D1, D2} T3: {D2, D3, D4} Abarbeitung: Ergebnis Vereinigung T1, T2 {D1, D2, D3} Schnittmenge mit T3 {D1} In der Praxis setzt man für die Repräsentation von Mengen Bitvektoren und Hashing-Funktionen ein, für die jeweils die notwendigen Mengenoperationen implementiert sind.

Das vector space model (vsm) von Salton Seit Anfang der 60er Jahre von Salton et al. in Harvard/Cornell entwickelt. Implementierung als System Smart Basisidee: Modellierung von Dokumenten wie Anfragen durch einen n-dimensionalen Vektorraum bei n unterschiedlichen Termen in der Indexierungssprache eignet sich durch direkten Interpretation von Anfragen in natürlicher Sprache, daher ein weites Einsatzgebiet (IR, automatische Klassifikation information filtering, routing etc.) Durch die Homomorphie von Anfrage- und Dokument- repräsentation eignen sich z.B. auch Dokument- repräsentationen als Anfragen (um z.B. "ähnliche „ Dokumente zu finden oder relevance feedback durchzuführen).

Formale Eigenschaften des vsm Repräsentation von Dokumenten und Anfragen als Vektor: Einfachste Annahme: Binäre Kodierung (0,1) der Terme in den Vektoren, ohne weitere Termgewichtung (wie im Booleschen Modell).

Bildliche Darstellung eines zweidimensionalen Vektorraumes: T2 * Dr Dr T1 ar2 * T2 ar1 * T1 T1 * Dr

Die Berechnung der Ähnlichkeit zwischen Dokumenten und Anfragen kann im einfachsten Fall durch Skalarprodukt aus Gewichten und Vektoren in Anfrage und Dokumenten erfolgen: Dabei besteht das Problem, daß man “an sich” Kenntnis über Term-Term-Korrelationen (TiTj) benötigt! Folge: (Unzulässige?) Vereinfachung des Modells – man nimmt der Einfachheit halber einen orthogonalen Vektorraum an, für den gilt:

Das bedeutet, dass eine völlige Unabhängigkeit der Terme (d.h. der Dimensionen des Vektorraums) angenommen wird, eine Annahme, die der Realität mit Sicherheit nicht entspricht. Eine Reihe von Modellen, die auf dem einfachen Vektorraummodell aufsetzen, versuchen diesen Nachteil zu beheben, ohne aber Term-Term-Korrelationen vollständig ausrechnen zu müssen. Dabei wird z.B. die Zahl der Dimensionen des Vektorraums, für die Korrelationen errechnet werden, deutlich reduziert.

Unter der Annahme orthogonaler Vektoren fällt also die Berechnung der Termkorrelation weg, und es ergibt sich (im einfachsten Fall) das Skalarprodukt der Vektoren als Ähnlichkeitsmaß für den Vergleich von Anfrage und Dokument bzw. Dokument und Dokument: 1. Dokument-Anfrage-Vergleich 2. Dokument-Dokument-Vergleich

Beispielrechnung zum Vektorraummodell Die nachfolgende Beispielrechnung zum Vekorraummmodell errechnet Anfrage-Dokumentähnlichkeiten ohne und mit Berücksichtigung von Term-Term-Korrelationen (vgl. Salton 1989): Voraussetzungen: Termmenge Dokumentenkollektion Anfrage Dokument-Term-Matrix Term-Term-Korrelationsmatrix Termmenge = {T1, T2, T3} Dokumente (mit Termgewichten): D1 = 2T1 + 3T2 + 5T3 D2 = 3T1 + 7T2 + 1T3

Anfrage: Q = 0T1 + 0T2 + 2T3 Ähnlichkeitsberechnung (Skalarprodukt) ohne Term-Term-Korrelation: sim(D1, Q) = 20 + 30 + 52 = 10 sim(D2, Q) = 30 + 70 + 12 = 2 Zusatzinformation Term-Term-Korrelation: T1 T2 T3 T1 1 0.5 0 T2 0.5 1 -0.2 T3 0 -0.2 1

Ähnlichkeitsberechnung (Skalarprodukt) mit Term-Term-Korrelation: Zusätzlich zur Berechnung der Termgewichte in Anfrage und Dokument werden deren Produkte mit der jeweiligen Term-Term-Korrelation multipliziert, d.h.: sim(D1, Q) = (2T1 + 3T2 + 5T3) (2T3) = 4 T1 T3 + 6 T2 T3 + 10 T3 T3 = -60.2 + 101 = 8.8 sim(D2, Q) = (3T1 + 7T2 + 1T3) (2T3) = 6 T1 T3 + 14T2 T3 + 2 T3 T3 = -140.2 + 21 = -0.8

Evaluationskriterien Die Qualität einer Anfrage bemisst sich neben Ihrer Vollständigkeit (und an sich auch der Qualität der enthaltenen Dokumentationseinheiten) vor allem nach ihrer Effektivität, d.h. nach der Möglichkeit, auf ein Informationsbedürfnis die passenden (relevanten) und nur die passenden Einheiten zu finden. Diese Effektivitätsmaße können durch die klassischen Parameter der Retrieval-Evaluierung bestimmt werden, bei der die Dokumentenkollektion nach den Kriterien relevant/ nicht relevant und nachgewiesen/ nicht nachgewiesen aufgeteilt wird.

Im einzelnen ergeben sich folgende Mengen: Zahl aller Dokumentationseinheiten a + b + c + d Zahl nachgewiesener relevanter Dokumentationseinheiten a Zahl nachgewiesener nicht relevanter Dokumentationseinheiten d Zahl nicht nachgewiesener relevanter Dokumentationseinheiten b Zahl nicht nachgewiesener nicht relevanter Dokumentationseinheiten c Zahl nachgewiesener Dokumentationseinheiten a + b Zahl nicht nachgewiesener Dokumentationseinheiten c + d Zahl relevanter Dokumentationseinheiten a + d Zahl nicht relevanter Dokumentationseinheiten b + c

Recall und Precision Recall: Verhältnis gefundener relevanter Dokumente zur Gesamtmenge relevanter Dokumente (a/ a+d) Recall: 0 <= r <= 1 Precision: Verhältnis der gefundenen relevanten Dokumente zur Gesamtmenge gefundener Dokumente (a/a+b) Precision: 0 < p <= 1

Typischer Verlauf eines recall - precision - Graphen: