Sentiment Analysis Abschlussvortrag zum Studienprojekt

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmen und Datenstrukturen
Advertisements

Developing your Business to Success We are looking for business partners. Enterprise Content Management with OS|ECM Version 6.
Anzahl der ausgefüllten und eingesandten Fragebögen: 211
Kohonennetze für Information Retrieval mit User Feedback
Sentiment Analysis Studienprojekt
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil3.
LS 2 / Informatik Datenstrukturen, Algorithmen und Programmierung 2 (DAP2)
WS Prof. Dr. Th. Ottmann Algorithmentheorie 09 - Suche in Texten KMP, BM.
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
What do you get marks for?
Telefonnummer.
CPCP Institute of Clinical Pharmacology AGAH Annual Meeting, 29. Februar 2004, Berlin, Praktischer Umgang mit den Genehmigungsanträgen gemäß 12. AMG Novelle.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Modelle und Methoden der Linearen und Nichtlinearen Optimierung (Ausgewählte Methoden und Fallstudien) U N I V E R S I T Ä T H A M B U R G November 2011.
Workshop zur Medienarbeit der katholischen Kirche Aspekte des Religionsmonitors Berlin, 02. April 2008.
Verifizieren versus Berechnen
Java: Objektorientierte Programmierung
Algorithmentheorie 04 –Hashing
WS Algorithmentheorie 02 - Polynomprodukt und Fast Fourier Transformation Prof. Dr. Th. Ottmann.
Genetische Algorithmen
Internet facts 2006-III Graphiken zum Berichtsband AGOF e.V. März 2007.
Internet facts 2008-II Graphiken zu dem Berichtsband AGOF e.V. September 2008.
Internet facts 2006-II Graphiken zu dem Berichtsband AGOF e.V. November 2006.
Vorlesung: 1 Betriebliche Informationssysteme 2003 Prof. Dr. G. Hellberg Studiengang Informatik FHDW Vorlesung: Betriebliche Informationssysteme Teil2.
Vererbung Spezialisierung von Klassen in JAVA möglich durch
PKJ 2005/1 Stefan Dissmann Zusammenfassung Vorwoche Programm besteht aus mehreren Bestandteilen: Schlüsselwörter Sonderzeichen Bezeichner Kommentare Texte.
PKJ 2005/1 Stefan Dissmann Zusammenfassung Bisher im Kurs erarbeitete Konzepte(1): Umgang mit einfachen Datentypen Umgang mit Feldern Umgang mit Referenzen.
Relevanz Ranking Bisher: Sind wir davon ausgegangen, dass das Ergebnis des Rankings des statistischen Verfahrens in den Index geschrieben wird und dem.
Intelligentes Crawling im WWW mit Hilfe intuitiver Suchbedingungen
Prof. Dr. Bernhard Wasmayr VWL 2. Semester
AWA 2007 Natur und Umwelt Natürlich Leben
1. 2 Schreibprojekt Zeitung 3 Überblick 1. Vorstellung ComputerLernWerkstatt 2. Schreibprojekt: Zeitung 2.1 Konzeption des Kurses 2.2 Projektverlauf.
Dienstag, den 25. Juni 2013 Titel: Wie kommst du mit deiner Familie aus? Das Lernziel: to say how you get on with your friends and family Language focus:
20:00.
Die Geschichte von Rudi
„Küsse deine Freunde“ – FlexKom-App teilen
Eine Einführung in die CD-ROM
Wir üben die Malsätzchen
Polynome und schnelle Fourier-Transformation
NEU! 1 2. Wo kommt diese Art von Rezeptor im Körper vor?
Analyse von Ablaufdiagrammen
HORIZONT 1 XINFO ® Das IT - Informationssystem PL/1 Scanner HORIZONT Software für Rechenzentren Garmischer Str. 8 D München Tel ++49(0)89 / 540.
Jesus lehrt in Gleichnissen
PROCAM Score Alter (Jahre)
Ertragsteuern, 5. Auflage Christiana Djanani, Gernot Brähler, Christian Lösel, Andreas Krenzin © UVK Verlagsgesellschaft mbH, Konstanz und München 2012.
Vorlesung Mai 2000 Konstruktion des Voronoi-Diagramms II
Das ist die Geschichte eines kleinen Jungen aus der Schweiz.
Symmetrische Blockchiffren DES – der Data Encryption Standard
PARTENARIAT ÉDUCATIF GRUNDTVIG PARTENARIAT ÉDUCATIF GRUNDTVIG REPERES KULTURELLER ZUSAMMENHALT UND AUSDEHNUNG DER IDEEN AUF EUROPÄISCHEM.
Zahlentheorie und Zahlenspiele Hartmut Menzer, Ingo Althöfer ISBN: © 2014 Oldenbourg Wissenschaftsverlag GmbH Abbildungsübersicht / List.
MINDREADER Ein magisch - interaktives Erlebnis mit ENZO PAOLO
1 (C)2006, Hermann Knoll, HTW Chur, FHO Quadratische Reste Definitionen: Quadratischer Rest Quadratwurzel Anwendungen.
Using latent semantic analysis to find different names for the same entity in free text Präsentation und Diskussion des Papers Im Rahmen des PS Web-Information.
ENDLICHE KÖRPER RSA – VERFAHREN.
Schutzvermerk nach DIN 34 beachten 20/05/14 Seite 1 Grundlagen XSoft Lösung :Logische Grundschaltung IEC-Grundlagen und logische Verknüpfungen.
Folie Beispiel für eine Einzelauswertung der Gemeindedaten (fiktive Daten)
Dokumentation der Umfrage BR P2.t Ergebnisse in Prozent n= 502 telefonische CATI-Interviews, repräsentativ für die Linzer Bevölkerung ab 18 Jahre;
Euro Bundeswertpapiere
Bildergalerie PRESEASON CAMP Juni 2014 Romanshorn Get ready for the Season!
Tutorium Statistik II Übung IV Philipp Schäpers Mi – 11.45
Es war einmal ein Haus
Folie Einzelauswertung der Gemeindedaten
1 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt Modalverben.
Numbers Greetings and Good-byes All about Me Verbs and Pronouns
J-Team: Gymnasium Ulricianum Aurich und MTV Aurich Ein Projekt im Rahmen von UlricianumBewegt.de Euro haben wir schon…  8000 mal habt ihr bereits.
Datum:17. Dezember 2014 Thema:IFRS Update zum Jahresende – die Neuerungen im Überblick Referent:Eberhard Grötzner, EMA ® Anlass:12. Arbeitskreis Internationale.
1 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt 10 pt 15 pt 20 pt 25 pt 5 pt Wie.
1 Medienpädagogischer Forschungsverbund Südwest KIM-Studie 2014 Landesanstalt für Kommunikation Baden-Württemberg (LFK) Landeszentrale für Medien und Kommunikation.
Monatsbericht Ausgleichsenergiemarkt Gas – Oktober
Niko Zenker1 Besondere Aspekte in Multimedia-Datenbanken Methoden zur iterativen Anfrageverfeinerung (Relevanz Feedback)
 Präsentation transkript:

Sentiment Analysis Abschlussvortrag zum Studienprojekt Svetlana Dedova, Stefanie Pischek, Vladlena Belinschi Dozenten: Dr. Detlef Prescher, Matthias Hartung Ruprecht-Karls-Universität Heidelberg Seminar für Computerlinguistik 27.09.2007 1

Inhalt 1. Kurze Einführung in das Themengebiet 2. Grundsätzliche Lösungen 3. Das Modell 4. Das Experiment - Baseline - Systemarchitektur - Korpus - Keyword Lists - Evaluation - Optimierung: - i. Keyword Listen - ii. Source Code - iii. Zählweise - iv. Texteingabe - v. Rahmen - vi. Gewichtung - vii. Negation - Zusammenfassung 5. Quellenangaben 2

Kurze Einführung in das Themengebiet ► Sentiment: was ist das? Review 1 Divergierende Nuancen von Grau ... "Viel Lärm um Nichts" - oder ein Fall der keiner war. Dramaturgisch ein eher belehrender als unterhaltsamer, dafür aber einschüchternd und grau in wirklich allen Facetten, eben ein DDR-Film. Unglaublich, mit welcher Offenheit man selbst noch im Jahre 1989 in der DDR die restriktive und allmächtige Staatsgewalt darstellte. Gerade heute verschlägt es einem die Sprache, wie wenig ein Mensch damals wert war. Der Film an sich ist weniger interessant als vielmehr das Lokalkolorit und die zeitgemässe Darstellung einer Welt, die keiner mehr haben mag. Gott sei dank. Ein Herr Schäuble wünscht sich vielleicht eine derartige Gesellschaftsordnung, damit steht er aber eher alleine da. Es gab wirklich gute Filme von "Polizeiruf", aber das ...? Review 2 Es war eher ein Film für meine ältere Schwester, denn ich stand damals noch in den Kinderschuhen, als ich den Film zum ersten Mal sah. Mir gefiel der Anfang so gut. Damals war ich aber noch zu klein um die Story zu verstehen. Vor einigen Jahren sah ich es dann aber mal im TV und war ziemlich baff über die Story. Es ist eine Story, sehr nahe an der Realität, wie sie eigentlich jede Familie erleben könnte. "When a Man loves a Woman" ist keine normale Lovestory, sondern bietet einen interessanten Einblick in eine Familie, deren Mutter alkoholkrank ist. Die Geschichte berührt sehr, vor allem durch die starken Charaktere, gespielt von Meg Ryan und Andy Garcia, sowie die bewegende Leistung von Tina Majorino. Ein Film der sich auf alle Fälle zu schauen lohnt. Er könnte vielleicht sogar einen kleinen Therapieeffekt erwirken. Was ist Sentiment? Hier haben wir 2 Beispieltexte (vorlesen). Bewerten lassen und nach dem Grund fragen. Merken.

Kurze Einführung in das Themengebiet ► Sentiment: Definition „Sentiment“ / „Semantic Orientation“ (SO) / „Opinion“ ist die subjektive Meinung über einen Gegenstand / Aktion / Prozess; positiver oder negativer Inhalt eines Wortes /Satzes /Texte [Taboada et al., 2006] z.B. „Der Film ist langweilig.“ „Der Film ist sehenswert.“ „Sentiment Analysis“ bezeichnet die automatische Auswertung von Texten mit dem Ziel, die Meinung des Verfassers ausfindig zu machen. Erklären

Kurze Einführung in das Themengebiet ► Motivation / wofür Sentiment Analysis? Ständig steigende Informationsmenge im Internet Texte können oft lang und unübersichtlich sein Filterung oft anhand eines Ranking (ohne Sentiment) ________________ Sentement Analysis Beispiele: Produktbewertung Politik Kritiken Blogs und E-Mails Um zu wissen, wie viele Meiningen sind für eine Idee und wie vilele dagegen. Z.B. Produktbewertung (Handys, MP3s und eitere technischen Geräte), Politik( wie oft schreibt man positiv bzw. negativ über eine politische Person/Angelegenheit), Kritika (wie in obengenannten Beispielen Filmkritika)

Grundsätzliche Lösungen Grundidee/Hypothese: man vermutet, dass, wenn die SO aller relevanten Wörter im Text bekannt sind, man die SO des ganzen Textes ermitteln kann. z.B. Liste=[„langweilig“(NEG), „dilettantisch“(NEG), „erfolgreich“(POS), „genial“(POS)] Wie werden die Lexika gebildet? Manuelle Bildung der Lexika: mühsam, zeitaufwendig, subjektiv Halbautomatische Bildung der Lexika: z.B. anhand der Wordfrequenzen Automatische Bildung der Lexika: z.B. auf Wortebene, auf Phrasenebene ► Wie kann man die Analyse automatisch durchführen? Grundidee: ... Erinnerung an Beispeil, Folie 1

Grundsätzliche Lösungen Wo wird gezählt? Im ganzen Text In den Sätzen mit subjektivem Inhalt : (1) „Die erfolgreiche Anwältin Claire Kubik ist seit langem mit dem Ex-Soldaten Tom verheiratet.“ (objektiv) (2) „Diese Rolle war sehr erfolgreich.“ (subjektiv) Wie wird gezählt? Alle Schlüsselwörter haben gleiche Gewichtung 1:1 Die Gewichtung ist verschieden und von der - Textstruktur - Worthäufigkeit abhängig. ►

Das Modell Quelle: “Thumbs up? Sentiment Classification using Machine Learning Techniques” von B.Pang and L.Lee, 2002 Vorgehensweise: 1. Korpus aus Filmkritiken 2. Manuelle und halbautomatische (Frequenzanalyse) Schlüsselwortlisten aus Adjektiven und Adverbien 3. Zählen der gefundenen Schlüsselwörter nach Token / Type 4. Optimierung der gewonnenen Sets Warum für unser Projekt geeignet? Einfachere Lösung Liefert gute Ergebnisse Interesse, ob es genauso gut für das Deutsche funktioniert ►

Das Experiment: Baseline Normalfall: - Ein Simple Classifier weist Objekte nur einer Klasse zu: alle zur positiven oder alle zur negativen Klasse - Bei Korpusverteilung mit 50% positiven und 50% negativen Texte hätte er immer zu 50% Recht. Unserer Fall: - Korpusverteilung: 80% positive vs. 20% negative Texte - Unser Simple Classifier rät zu 80%, ins Kino zu gehen - Schwierig diesen Wert zu schlagen, weil 80% fürs Experimentieren schon recht hoch eingesetzt ist ► Simple Classifier gibt nur eine Lösung: positive oder negative. Bei dem Korpus mit der Gleichverteilung, d.h. 50% - 50% für positive und negative Texte, hätte er immer zu 50% Recht.

Das Experiment : Systemarchitektur Datenbank für Filmkritiken www.zelluloid.de NEG Wörterliste (q) POS Wörterliste (q) Positive Texte DB Negative Texte DB ► Freq (f) von POS/NEG. Wörtern in beiden DB Doc1={t1: n, t2: m,..., tq: x} Doc1={t1POS: n, t2POS: m, ..., tqPOS: x} Doc1={t1NEG: n, t2NEG: m, ..., tqNEG: x} ΣtPOS >= oder < ΣtNEG Bewertung: positiv bzw. negativ

Das Experiment: Korpus CorporaZelluloid.py Positive Review > 55% Negative Review < 45% Vor ca. 18.07.2007 – 116 Seiten, jede Seite hat 9 Reviews Gesammt: 1024 Positive: 818 Negative: 205 Nach ca. 18.07.2007 – ca 10 Seiten (gibt’s mehr Zeigt immer die 10te, jede Seite hat 10 Reviews. Ergebniss pos/neg nach jedem extrakt. unterscheided sich (reviews update?) Gesammt: 100 Positive: 87 Negative: 13 ►

Das Experiment: Korpus Entwicklung Flexible Variablen für: Domain, RelevanteLinks, Reguläre Ausdrücke (Vorteil - wenn die HTML Struktur ändert sich, man muss nur Variablen anpassen) 2 Modulen: 1- Class FindReviews mit Hilfsfunktionen 2- Class Corpora_Zelluloid Class FindReviews() readURL readFile writeSource findPageLinks deleteDoubleLinks chooseWorkingLinks findText findRegEx sortReviews findInPage html2Text createDir printSummary ► Class Corpora_Zelluloid() findWorkingLinks CreateFolders RemoveFolders updateFolders main

Das Experiment: Korpus Evaluation - halbautomatisch Gründe für die Evaluation Die Ergebnisse der Suche evaluieren, um sie eventuell anzupassen. Bewertung der Ergebnisse: Precision (Genauigkeit) = Relevant Ausg. / Gesamt Ausg. Recall (Vollständigkeit) = Relevant Ausg. / Relevant Gesamt Fallout (Effektivität) = Irrelevant Ausg. / Irrelevant Gesamt F-Maß F = (ß*ß + 1) * P * R / (ß*ß * P + R) Ergebnisse nach F- Maß (ß=1) Vereinfachte Formel: F = 2 * P * R / (P + R) ►

Das Experiment: Korpus Evaluation - halbauthomatisch Die Evaluation würde durchgeführt nach 18.07.07. Var (Ergebnisse von CorporaZelluloid.py): TotalDownladedReviews = 100 TotalDownloadedPosReviews = 87 TotalDownloadedNegReviews = 13 LengthOfDownloadedReviews = 33083 TotalNumberReviews = 100 Var (Manuell): TotalOnlineReviews = 100 TotalOnlinePosReviews = 87 TotalOnlineNegReviews = 13 LengthOfOnlineReviews = 33109 (Gezählt im Microsoft Word) ►

Das Experiment: Korpus Evaluation - halbautomatisch Ergebniss: All Reviews: Precision: 100 Recall: 100 Fallout: 0.0 F - Mass: 100 Pos Reviews: Neg Reviews: Precision: 100 Recall: 100 Fallout: 0.0 F - Mass: 100 Length of All Reviews Recall: 99 Fallout: - F - Mass: 99 EvalZel.py This module helps to evaluate links, reviews and rating that 5 we extract from given Corpora (ex. Zelluloid). ► Class FindReviews() Precision Recall Fallout Fmas printEval EvalZel Mehr von Ergebnissen unter ..\eval\EvaluationZel

Das Experiment: Korpus Korpusverteilung für das Experimentieren Korpus 100% ► Training Set 40% Test Set 60% Development Test Set 30% Final Test Set 30%

Das Experiment: Keyword Lists Ziel: Basis für das Experiment zu bilden automatische Wortfrequenzliste aus Adjektiven und Adverbien erstellen  passende Sentiment-Zielschlüsselwörter bestimmen Warum Adjektive, Adverbien? gute Indikatoren der subjektiven Meinung erster Startpunkt das Experiment von Lee auf Deutsch nachzumachen Input Korpora -> positiver Korpus -> negativer Korpus Für jeden Korpus - separate Wortfrequenzliste ►

Das Experiment: Keyword Lists frequency list out of all ADJ / ADA from positive reviews positive reviews tagged positive reviews tagger.py WordFreqSeparate.py tagged negative reviews ► negative reviews frequency list out of all ADJ / ADA from negative reviews positive word frequency list manual word selection negative word frequency list

Das Experiment: Keyword Lists Manuelle Wortauswahl Problem: Wortfrequenzlisten sehen ähnlich aus -> schwierig passende, sentiment-tragende Wörter zu wählen Ergebnis: Positive Liste: gut, besser, best, wirklich, groß, größ, einzig, echt, stark, perfekt, sehenswert, unterhaltsam Negative Liste: einfach, schlecht, gar, schwer, scheinbar, halb, ziemlich, schlimm, langweilig, schwach, flach, relativ Automatische positive Liste Automatische negative Liste ►

Das Experiment: Keyword Lists Wortfrequenzlisten aus Grundformen vs. Wortformen Grundformliste Wortformliste Argumente für Frequenzliste aus Grundformen: Es werden die Wörter mit den höchsten Frequenzwerten in die Liste genommen Wortformen sind dagegen über mehrere Zeilen verteilt -> schwierig diese unter einen Nenner zu bringen Das Programm hat ein Flexions-Modul, das diese Aufgabe übernimmt ►

Das Experiment: Evaluation Evaluationsmaß Precision= Anzahl der richtig gefundenen positiven und negativen Texte / Anzahl der Gesamtkorpusgröße EvalSentAnal.py This module evaluates the Results for Sentiment Analysis. It contains the functions evaluation() and printResults()""" Programmprototyp evaluieren Input: manuell erstellte Keyword Listen Programm: Prototyp Precision: 45.6% => Optimierung ► Class FindReviews() Evaluation printResults

Das Experiment: Optimierung Text Input Module Keyword Input Module review positive keyword list Optimierungen: 1. Keyword Input Module: Varianten der Keywordlisten 2. Sentiment Analysis Module: Source Code Optimierung Zählweise: Token vs. Type Rahmen Gewichtung Negation 3. Text Input Module: getaggte vs. standarte Texteingabe negative keyword list Sentiment Analysis Module ► program Moduleübersicht Output: “Geh ins Kino!” bzw. “Bleib zuhause”

Das Experiment: Optimierung i. Keyword Listen WO? im Keyword Input Module: manuelle vs. halbautomatische Liste Manuelle Listen: Positive: empfehlenswert, gut, ausgezeichten, sehenswert Negative: stört, schlecht, abzuraten, mieser Halbautomatische Listen: Positive: gut, besser, best, wirklich, groß, größ, einzig, echt, stark, perfekt, sehenswert, unterhaltsam Negative: einfach, schlecht, gar, schwer, scheinbar, halb, ziemlich, schlimm, langweilig, schwach, flach, relativ Precision: 45.6% (manuell) vs. 47% (halbautomatisch) ►

Das Experiment: Optimierung ii. Source Code WO? im Sentiment Analysis Module Allgemeine Verbesserung des Programmprototypes precision: 47% (alt) vs. 53.3% (neue Version) iii. Zählweise Änderung der Suchmethode precision: 53.3% (Token) vs. 48.3% (Type) iv. Texteingabe WO? im Text Input Module Änderung der Texteingabe wegen falscher Umlauterkennung precision: 53.3% (standard text input) vs. 62.2% (tagged text input ) ►

Das Experiment: Optimierung i. Keyword Listen: neue Versionen von Listen erstellen WO? im Keyword Input Module Problemstellung: 1. Tragen alle Wörter Sentiment in sich wie z.B. „halb“, „scheinbar“? 2. Sind manche Wörter zu allgemein wie z.B. „gut“? Lösung: Erstellen Varianten von Listen NEG_1: einfach, schlecht, gar, schwer, scheinbar, halb, ziemlich, schlimm, langweilig, schwach, flach, relativ NEG_2: wie NEG_1 ohne „einfach“ NEG_3: wie NEG_1 ohne „halb“ NEG_4: wie NEG_1 ohne „halb“, „scheinbar“ NEG_5: wie NEG_1 ohne „halb“, „scheinbar“, „einfach“ POS_1: gut, besser, best, wirklich, groß, größ, einzig, echt, stark, perfekt, sehenswert, interesant, unterhaltsam POS_2: wie POS_1 ohne „gut“ POS_3: wie POS_1 ohne „wirklich“ ►

Das Experiment: Optimierung Abhängigkeit der Anzahl gefundener negativen Texte von der Anzahl gefundener positiven Texte und der Precision Experiment Keyword Input: NEG_1 mit POS_1/2/3 POS_1 mit NEG_1/2/3/4/5 Text Input: Standarte Texteingabe Tendenz: je mehr man positive Texte findet, desto weniger negative Texte gefunden werden, wächst die Precision auf Kosten der positiven Texte => weiter evaluieren ►

Das Experiment: Optimierung Evaluation: Kombinieren von 4 Optimierungen Keyword Listen: 6 negativen Listen, 4 positiven Listen 6*4=24 Kombinationsmogligkeiten Texteingabe: standarte und getaggte Zählweise: token und type Keyword Listen: positiv + negativ Standarte Texteingabe Getaggte Texteingabe Zählweise Token Type positive_0 negative_0 positive_... negative_... positive_3 negative_5 ►

Das Experiment: Optimierung Evaluation: Kombinieren von 4 Optimierungen ►

Das Experiment: Optimierung Zwischenbericht: Alle Testversionen haben ähnliches Verhalten Die Precision wächst nur auf Kosten von positiven Texten wegen der Korpusverteilung (80% zu 20%) Wegen des „simple Classifier Problems“ scheint die Precision nicht allein für die Evaluation zu reichen Weiter optimieren Ausgewählte Versionen für weiteren Optimierungen: Neue Programmversion Getaggte Texteingabe Zählweise nach Type Keyword Listen: alle 24 Kombinationsmöglichkeiten ►

Das Experiment: Optimierung v. Rahmensuche Grund: Besonderheit der Textstruktur da wir Filmreviews untersuchen besteht ein Text immer aus Inhaltsbeschreibung (2/3) und Bewertung (1/3) die Bewertung befindet sich immer am Ende des Texts (=Rahmen) Annahme 1: das Vorkommen von keywords in der Inhaltsbeschreibung könnte das Gesamtergebnis verfälschen =>daher: Suche beschränken auf den Rahmen Annahme 2: da die keyword-Listen aus dem gesamten Text gewonnen werden, könnten die keyword-Listen „schlechte“ Einträge haben =>daher: Bildung neuer keyword-Listen nur aus dem Rahmen ►

Das Experiment: Optimierung v. Rahmensuche Realisierung Annahme 1 WO?: im Sentiment Analysis Module: search – Methode Sentiment Analysis Module Keyword Input Module Text Input Module (search): check text only in frame positive keyword list full automatic review (main): countFreq or count Words negative keyword list full automatic ►

Das Experiment: Optimierung Text Cutter v. Rahmensuche Realisierung Annahme 2 WO?: im Keyword Input Module positive texts negative texts Text Input Module Sentiment Analysis Module Keyword Input Module positive keyword list full automatic (search): check text only in frame review negative keyword list full automatic ► (main): countFreq or count Words

Das Experiment: Optimierung v. Rahmensuche Evaluation Annahme 1 ► Annahme 2

Das Experiment: Optimierung vi. Gewichtung Grund: Unterschiedliche Aussagekraft der keywords nicht alle Einträge in der keyword-Liste sind gleichwertig bezüglich ihrer Aussagekraft Annahme je höher die Position eines keywords in der Frequenzliste, desto aussagekräftiger ist es wenn ein Text nur wenige Treffer in der für ihn „richtigen“ keyword- Liste erzielt, soll die Gewichtung helfen ihn dennoch richtig zu zuordnen Vorgehensweise: die Treffer der Suche werden mit Gewichten anhand der Frequenz versehen ►

Das Experiment: Optimierung vi. Gewichtung Realisierung WO?: im Sentiment Analysis Module Sentiment Analysis Module Keyword Input Module Text Input Module (search): check text only in frame positive keyword list full automatic (weights): adds weights to result review negative keyword list full automatic ► (main): countFreq or count Words

Das Experiment: Optimierung vi. Gewichtung Evaluation ►

Das Experiment: Optimierung vii. Negation Problem: ein keyword besteht nur aus einem Wort, aber es gibt viele negative Ausdrücke, die der Form „Negation + positives Wort“ entsprechen => daher werden oftmals falsche positive Treffer erzielt Lösung 1: „unechte“ Treffer werden nicht gewertet werden Vorgehensweise: bei der Suche wird jedesmal wenn ein Treffer mit der keyword-Liste stattfindet geprüft, ob das vorangehende Wort eine Negation ist (1) ist das voangehende Wort ein Negation, so wird der Treffer verworfen d.h. nicht gezählt (2) ist das vorangehende Wort keine Negation, so wird der Treffer als solcher erkannt d.h. gezählt ►

Das Experiment: Optimierung vii. Negation Realisierung Lösung 1 WO?: im Sentiment Analysis Module: search – Methode Sentiment Analysis Module Keyword Input Module Text Input Module (search): no match when previous word is a negative particle positive keyword list full automatic review negative keyword list full automatic (main): countFreq or count Words ►

Das Experiment: Optimierung vii. Negation Evaluation Lösung 1 ►

Das Experiment: Optimierung vii. Negation Lösung 2: WO?: in den KeyWord-Listen Hinzufügen von negativen Partikeln „kein“ und „nicht“ an die Wörter in den Listen WIE?: PosWords = posWords + (negWords with Partikeln) NegWords = negWords + (posWords with Partikeln) Aufteilen des Texts nach Wörtern; kommt ein Partikel nach einem Wort, dann Aufteilen in Partikel + Wort. Damit wir das nächste genommene Wort nicht doppelt haben (Wort, Partikel und Wort), merken wir uns den Platz des Wortes und löschen es. Zählen der Wörter mit Wort.Startswith und ignorieren, was am Ende steht. ►

Das Experiment: Optimierung (wordsPartikeln_Automatic) Partikeln Wörterliste „kein, nicht“ POS Wörter + NEG. Partikeln NEG Wörte Liste 1 (words_semiAutomatic) NEG Wörter + NEG. Partikeln (words_semiAutomatic) File mit pos Wörtern File mit neg Wörtern POS Wörte Liste 1 ► (main): countFreq or count Words (datenbank_FK) 41

Das Experiment: Optimierung Experimente: Mehrere Experimente durchgeführt für Freq.Count und Words Count wie: Wörter wie “kein”, “keine” = kein und “gut”, “gutes” = gut Satzzeichen “!” und “?” zählen “?” - zählen für negative “!” und “?” zählen für pos oder neg nur wenn nach pos oder neg Key Wort vorkommt “?” zählen nur ein mal Verschiedene Gewichte für “?” und “!” Mit Hilfe von Zufall entweder positiv oder negativ gewählt Beispiel: Jede 3te nicht als positive oder negative erkannt = negative ► Mehr von Experimenten unter \eval\EvaluationSentAnalysis\Results_Vladlena

Das Experiment: Optimierung Ergebnisse: Schlechte Ergebnisse bei Experimenten mit Satzzeichen Beispiel: KeyWordPOS_Stat_1.txt,KeyWordNEG_Man_0.txt Precision: 43,33% Gute Ergebnisse mit Hilfe von Zufall Precision: 78,666% ► Mehr von Ergebnissen unter \eval\EvaluationSentAnalysis\Results_Vladlena

Das Experiment: Zusammenfassung Die Baseline wurde erreicht, aber nicht geschlagen Alle Testversionen haben ein ähnliches Verhalten Wegen der Korpusverteilung (80% zu 20%) wächst die Precision nur auf Kosten der positiven Texte. Wegen des „simple Classifier Problems“ reicht die Precision allein nicht für die Evaluation aus. Menschliche Faktoren / Schreibstil können die Analyse sehr erschweren Mögliche weitere Optimierung durch: Erstellen eines neuen Evaluationsmaßes Neuer gleichverteilter Korpus Keywordlisten durch anderen Wortarten, z.B. Substantive, Verben erweitern Gewichteverteilung durch Algorithmen berechnen Negationsmöglichkeiten erweitern ►

Quellenangaben Gammon, M.: Sentiment classification on customer feedback data: noisy data, large feature vectors, and the role of linguistic analysis. Hatzivassiloglou / McKeown: Predicting the Semantic Orientation of Adjectives. In: Proceedings of the 35th Annual Meeting of the ACL and the 8th Conference of the European Chupter of the ACL,1997.pp. 174-181. Hu / Liu: Mining and Summarizing Customer Reviews. Owsley / Sood / Hammond: Domain Specific Affective Classification of Documents. Pang, B. / Lee, L.: Thumbs up? Sentiment Classification using Machine Learning Techniques. In: Proceedings of the Conference on Empirical Methods in Natural Language Processing (EMNLP), 2002. pp. 79-86. Taboada: Sentiment classification techniques for tracking literary reputation.In Proceedings of LREC Workshop, ‘Towards Computational Models of Literary Analysis‘. Genoa, Italy, May 2006. pp. 36-43. Thomas, M. / Pang, B. / Lee, L.: Get out the vote: Determining support or opposition from Congressional floor-debate transcripts. Tong, R.M.: An operational System for detecting and tracking opinion online discussion. Working Notes of the ACM SIGIR 2001 Workshop on Operational Text Classification. New York, NY: ACM. pp. 1-6. Turney, Peter D.: Thumbs Up? Semantic Orientation Applied to Unsupervised Classification of Reviews. In: Proceedings of the 40th Annual Meeting of the Association for Computational Linguistics (ACL), Philadelphis, July 2002. pp 417-424. Wiebe, Janice M.: Learning Subjective Adjectives from Corpora. In: Proceeding of the 17th National Conference on Artificial Intellegence. Menlo Park, CA: AAAI Press ►