HS Transkription in Sprachsynthese und - erkennung

Slides:



Advertisements
Ähnliche Präsentationen
Algorithmentheorie 08 – Dynamische Programmierung (4) Editierdistanz Approximative Zeichenkettensuche Sequence Alignment Prof. Dr. Th. Ottmann WS
Advertisements

Kap. 7 Sortierverfahren Kap. 7.0 Darstellung, Vorüberlegungen
Motivation Bisher: Codes mit möglichst kurzer Codelänge.
Stochastik und Markovketten
Paarweises Sequenz Alignment
Statistische Aspekte der PSG
Gruppenwettbewerb. Gruppenwettbewerb Aufgabe G1 (8 Punkte)
Das LCA – Problem in Suffixbäumen
11. Matrizen. 11. Matrizen Eine mn-Matrix ist ein Raster aus mn Koeffizienten, die in m Zeilen und n Spalten angeordnet sind. = (aij)1  i  m, 1.
WS Prof. Dr. Th. Ottmann Algorithmentheorie 09 - Suche in Texten KMP, BM.
Information - syntaktisch
5. Sortier-Algorithmen Vorbemerkungen:
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik Algorithmische Probleme in Funknetzwerken X Christian Schindelhauer
Übungsblatt 04 Lehrstuhl für Kommunal- und Umweltökonomie
Quellen-Filter Theorie der Sprachproduktion
Logische Vektoren in R Jonathan Harrington.
Grundlagen der R Programmiersprache
WS Algorithmentheorie 13 - Kürzeste (billigste) Wege Prof. Dr. Th. Ottmann.
Dynamische Programmierung (2) Matrixkettenprodukt
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (23 – Sortieren vorsortierter Daten) Prof. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (19 - Analyse natürlicher Bäume) Prof. Th. Ottmann.
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (11-1 –Selbstanordnende lineare Listen) Prof. Th. Ottmann.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27-Selbstanordnende lineare Listen) Prof. Th. Ottmann.
Informatik II, SS 2008 Algorithmen und Datenstrukturen Vorlesung 16 Prof. Dr. Thomas Ottmann Algorithmen & Datenstrukturen, Institut für Informatik Fakultät.
EINI-I Einführung in die Informatik für Naturwissenschaftler und Ingenieure I Vorlesung 2 SWS WS 99/00 Gisbert Dittrich FBI Unido
Klausur „Diskrete Mathematik II“
PKJ 2005/1 Stefan Dissmann Zusammenfassung Vorwoche Programm besteht aus mehreren Bestandteilen: Schlüsselwörter Sonderzeichen Bezeichner Kommentare Texte.
Secondary Structure Prediction for Aligned RNA Sequences
Zahlen mit Zahlen ausmessen
ISWeb - Information Systems & Semantic Web Marcin Grzegorzek 5.4 Latent Semantic Indexing und Singulärwertzerlegung Zerlegung von.
Hauptseminar Automaten und Formale Sprachen
Exact String Matching II1 Exact String Matching: A Deeper Look at Classical Methods Erweiterte Anwendungen zu Boyer-Moore und Knuth-Morris-Pratt Hauptseminar.
Folie 1 § 30 Erste Anwendungen (30.2) Rangberechnung: Zur Rangberechnung wird man häufig die elementaren Umformungen verwenden. (30.1) Cramersche Regel:
Tutorium
HOCHSCHULDIDAKTIK Hochschuldidaktik Achtung: 2-zeilige Überschrift! Zwischenüberschrift Hier kommt ein Text mit etwa 100.
Fuzzy Logic and Rough Sets Jens Grabarske, Gunter Labes
Machine Learning Decision Trees (2).
GlobalStorehouseGlobalStorehouse Institut für Modellbildung und Simulation IMS Bemerkung: Mit diesem "MB" und "WBM" lässt sich der ganze Zyklus abdecken.
7.1 Externes Suchen Bisherige Algorithmen: geeignet, wenn alle Daten im Hauptspeicher. Große Datenmengen: oft auf externen Speichermedien, z.B. Festplatte.
Effiziente Algorithmen
Computational Thinking Suchen und Sortieren [Ordnung muss sein…]
Splay Trees Von Projdakov Benjamin.
Effiziente Algorithmen
Effiziente Algorithmen
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Hartmut Klauck Universität Frankfurt SS
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Polynome und schnelle Fourier-Transformation
Dynamische Programmierung mit Anwendung auf Sequence Alignment Problem
Technische Informatik Reihungen – Felder - Arrays.
Suchen In Texten Von Adriano Feola & Marc Draschl.
Jamshid Azizi: Folie Isomorphietest Jamshid Azizi
Vorlesung Mai 2000 Konstruktion des Voronoi-Diagramms II
Using latent semantic analysis to find different names for the same entity in free text Präsentation und Diskussion des Papers Im Rahmen des PS Web-Information.
Analyse der Laufzeit von Algorithmen
Lineare Algebra 11. Matrizen Eine m  n-Matrix ist ein Raster aus m  n Koeffizienten, die in m Zeilen und n Spalten angeordnet sind. = (a ij )
Anfang Präsentation 3. November, 2004 Tarjan’s Schleifenaufbrechalgorithmus In dieser Vorlesung wird ein Verfahren vorgestellt, welches in der Lage ist,
Der A*-Algorithmus.
Information - syntaktisch
28/07/2015Walther-Rathenau- Gewerbeschule 1 Zeichenketten (Strings)
Mithilfe der Microsoft Excel Datensortierung können z.B. lange und ungeordnete Listen hilfreich aufsteigend oder absteigend sortiert werden.
Programmiersprachen II Fortsetzung Datenstrukturen Balancierte Bäume 3 Prof. Dr. Reiner Güttler Fachbereich GIS HTW.
ER-Modell Gegeben E: Jedes Entity eines Typs ist eindeutig durch das zugeordnete Tupel beschrieben. (sonst wäre A nicht charakteristisch [genug]
Klausur „Diskrete Mathematik II“
Diskrete Mathematik II
Laufzeitverhalten beim Sortieren
 Präsentation transkript:

HS Transkription in Sprachsynthese und - erkennung Analogiebildung II Yavuz Tüzün

Rückblick Systeme mit Trainingsdaten füttern Ergebnisse müssen kontrolliert werden ggf. durch back propagation verbessern IL-Systeme (inductive learning) bilden Buchstaben(-folgen) auf Phoneme ab PbA (Pronunciation by Analogy, s. AB I) vergleicht Zeichenketten auf orthographische Ähnlichkeit und verwendet die durch vorheriges Alignment den Ketten zugewiesenen Lautfolgen. Die Verkettung der Lautfolgen ergibt die Transkription.

Rückblick Liefern gute Ergebnisse für sprachspezifische Wörter

Pronunciation by Latent Analogy Weiterentwicklung von PbA Kein vorheriges Alignment Alignment nur zwischen Transkriptionen ganzer Wörter Die Wörter sind auf Grund orthographischer Ähnlichkeit zum Eingabewort ausgewählt Metrik aus der Analysis (Latent Semantic Analysis) dient als Instrument bestimmt charakteristische Buchstabenstrings der Wörter stellt ein Mass der Eindeutigkeit bestimmter Buchstabenketten zur Bestimmung von Wörtern dar

Pronunciation by Latent Analogy Ergebnis ist Menge von orthographischen Ankern, für jedes „In-Vocabulary“ (IV) -Wort ein Anker

Orthographische Nachbarn V sei Menge der IV-Wörter, |V| = M T sei Menge der Substrings mit Länge n, |T| = N '-' steht für Wortanfang und -ende, gilt als Buchstabe mit Länge 1 M Spalten, j-te Spalte für j-tes Word vj N Zeilen, i-te Zeile für i-ten Substring ti (N x M) Matrix W

Orthographische Nachbarn wij sagt aus zu welchem Mass Substring ti aus T im Wort vi aus V vorkommt SWZ von W: W = USVT U links singuläre Matrix, Reihenvektor ui V rechts singuläre Matrix, Reihenvektor vj Typische Grössen: R = 50 – 100, N = 10000, M = 10000 – 100000, n = 3 (N x M) W (N x R) U (R x R) S (R x M) VT

Beispiel Orthographische Nachbarn Vokabular: „rough“, „though“, „through“ Substrings mit der Länge n = 3 bilden: -ro rou oug ugh gh- -th tho hou thr hro rough though through -ro 1 rou 1 1 oug 1 1 1 ugh 1 1 1 (10 x 3) W gh- 1 1 1 -th 1 1 tho 1 1 hou 1 thr 1 hro 1

Beispiel Orthographische Nachbarn SWZ (engl.: Singular Value Decomposition) mit R = 2 3 2 3 W U S VT 2 10 10

Beispiel Orthographische Nachbarn OOV-Wort: „thorough“ Berchnung Vektor thorough -ro rou 1 oug 1 ugh 1 (10 x 1) gh- 1 -th 1 tho 1 hou thr hro

Beispiel Orthographische Nachbarn SWZ von , so dass U und S gleich bleiben: 1 2 1 U S 2 10 10

Beispiel Orthographische Nachbarn Abstände des OOV-Wortes zu allen IV-Wörtern mit Cosinusfunktion berechen: IV-Wörter umgekehrt in absteigender Entfernung sortieren IV-Wörter innerhalb eines vorher bestimmten Radius bilden orthographische Nachbarschaft zu Eingabewort

Beispiel Orthographische Nachbarn -0,6 -0,4 -0,2 0,0 0,2 tho though hou oug ugh gh- thorough -th rou thr hro -ro through rough 0,0 0,2 0,4 0,6 0,8 1,0

Alignment Alignment von kompletten Aussprachen aus der orthographischen Nachbarschaft Alignment startet mit jenem Phonemsequenz, welches am nächsten zu einem Substring mit Begrenzung für Wortanfang liegt. Substring mit Begrenzung für Wortanfang ist der nächstgelegene am OOV-Wort Im Beispiel: -th  through

Alignment Modifizierter komplizierter Algorithmus aus Bioinformatik Findet Gruppe von Proteinen innerhalb einer Proteinkette Identifikation von Genen in der DNA Seien φ1...φk...φK und ψ1...ψl...ψL Phonemstrings A(k,l) sind minimalen Kosten vom Alignment zwischen φ1...φk und ψ1...ψl C(k,l) sind Kosten für das Austauschen der Phoneme φk und ψl

Alignment g(i,k) bzw. h(j,l) sind Kosten für Lücke φi...φk im ersten bzw. ψj...ψl im zweiten String Rekursionsformel: A(k,0) = h(0,k), 1≤k≤K, und A(0,l) = g(0,l), 1≤l≤L

Alignment Kosten für Austauschen gleicher Phoneme gleich 0 Vokal-Konsonant-Austausch wird durch unendliche Kosten verboten Konsonant-Konsonant- bzw. Vokal-Vokal-Austausch genauso teuer wie Austausch einer Lücke Phonem, das am häufigsten an einer Stelle auftaucht wird in die Transkription übernommen

Beispiel-Alignment T r u: through V f rough D oU though d dough 3` third O t wrought thorough

Vergleich Um zu zeigen, wie gute Ergebnisse PbLA liefert, wird es mit einem Entscheidungsbaumsystem verglichen Entscheidungsbaum hat 2000 Knoten Trainingskorpus besteht aus 56514 überwiegend westeuropäische Namen Testvokabular: 500 Namen aus 84193 grossem Namenslexikon versch. ethnischer Gruppen Ergebnis: 23,3% Phonemfehlerrate, 80,2% Wortfehlerrate

Vergleich PbLA: M = 56514 und N = 8257 bei n = 3 SWZ auf (8257 x 56514) Matrix W mit R = 100 Schwelle wurde so gewählt, dass durchschnittlich 200 orthographische Nachbarn für OOV-Worte gefunden wurden Bessere Ergebnisse: 13,4% Phonemfehlerrate, 38,0% Wortfehlerrate

Vergleich PbLA liefert bessere Ergebnisse Erfordert (fast) keine linguistische Vorkenntnisse, ausser Wissen über Vokale und Konsonanten, s. Kostenfunktion Keine Beaufsichtigung, weil kein Training nötig

Fragen?

Ende!