Grundlagen der Analyse von Sprachdatenbanken

Slides:



Advertisements
Ähnliche Präsentationen
Aufbau, Abfrage, Analyse von Sprachdatenbanken
Advertisements

Spektrale Analysen in EMU-R: eine Einführung
Jonathan Harrington H*, L+H*, !H*, H+L*, L*+H Zuerst: A-M Modell (zur Erinnerung…)
Digitalisierung und Aufbereitung von Sprachdaten
Eine RDF Konvention für die Beschreibung phonetischer Ressourcen im Semantic Web Hauptseminar: Historisch-Kulturwissenschaftliche Objekte im Semantic Web.
Die Satzprosodie Phrasengrenzen, Akzentuierung, Intonation.
Die akustische Analyse von Sprachlauten.
Quellen-Filter Theorie der Sprachproduktion
Die phonetischen Merkmale von Vokalen
Die akustische Analyse von Sprachlauten
Spektra von periodischen Signalen. Resonanz.
Formant-Analysen von Vokalen
Software Praat: Doing Phonetics by Computer. Phonetik Institut, Amsterdam, EMU: Ein System für die Analyse von Sprachdatenbanken Macquarie.
Tina John Ebenen und Links in Sprachdatenbanken. Ebenen = Symbole werden mit der Zeit in einer Ebene verbunden. Namen der Ebenen Symbole der Word-Ebene.
Software Praat: Doing Phonetics by Computer. Phonetik Institut, Amsterdam, EMU: Ein System für die Analyse von Sprachdatenbanken Macquarie.
ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen Signalverarbeitung abgeleitete Signale.
Tina John Mehrfache Ketten in Sprachdatenbanken. Mehr als eine Kette wird benötigt wenn wir nicht alle Ebenen miteinander assoziieren wollen. zB möchten.
Software Praat: Doing Phonetics by Computer. Phonetik Institut, Amsterdam, EMU: Ein System für die Analyse von Sprachdatenbanken Macquarie.
Grundlagen der Analyse von Sprachdatenbanken
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
Wintersemester 2013/2014 Bistra Andreeva FR 4.7 Phonetik Universität des Saarlandes Prosodie.
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Das AM Modell der Intonation
Anwendung von Emu-TCL Jonathan Harrington.
Die Phonetik und Sprachverarbeitung
Berechnung von digitalen Signalen
Berechnung von digitalen Signalen Jonathan Harrington.
Sprachproduktion- und Sprachperzeption
Spektrale Analysen in EMU-R: eine Einführung
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
1. Satzbetonung, Töne, und Grundfrequenz
Abfragen aus einer Sprachdatenbank Jonathan Harrington.
Prosodie und Intonation: ein Überblick
Die Prosodie Jonathan Harrington Felicitas Kleber.
Die Anatomie der Grundfrequenz Jonathan Harrington.
Abfragen aus einer Sprachdatenbank Jonathan Harrington.
Artikulationsstelle, F2-Locus, Locusgleichungen Jonathan Harrington.
Etikettierungsebenen Jonathan Harrington. Das Ziel Etikettierungen verschiedener Ebenen aufzubauen, und miteinander zu verlinken.
Jonathan Harrington Downstep ist eine phonetische Regel, in der H-Töne in derselben Phrase wegen eines davor kommenden H-Tons gesenkt werden. Die Wirkung.
Transkription der Intonation mit GTOBI
Jonathan Harrington Downstep ist eine phonetische Regel, in der H-Töne in derselben Phrase wegen eines davor kommenden H-Tons gesenkt werden. Die Wirkung.
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Was ist die artikulatorische Grundlage von Locus-Gleichungen? Hauptseminar: Modelle der Sprachproduktion & - perzeption Dozent: Prof. Dr. Jonathan Harrington.
Was sind die unterschiedlichen Vorhersagen der Quantal Theory (QT) und der Theory of Adaptive Dispersion (TAD) bezüglich der Verteilung der Vokale in den.
Lautwandel, Perzeption, Kompensierung für Koartikulation.
So animieren Sie Kreisdiagramme mit der Eingangs-Animation „Rad“
Kategoriale Wahrnehmung
Linguistik Stellen Sie Fragen zum Text (schauen Sie auf Ihre Unterlagen)! Versuchen Sie die gestellten Fragen zu beantworten!
Das autosegmentelle-metrische Modell der Intonation
? Was ist Informatik? Was ist Informatik? Alexander Lange
Beziehung zwischen Phonetik und Phonologie
Die synchronen Grundlagen des Lautwandels Jonathan Harrington.
Allgemeines zu Datenbanken
„Wuppis Abenteuerreise durch die phonologische Bewusstheit“ ist ein umfassendes Sprachförderprogramm für Vorschulkinder, mit der Leitfigur Wuppi als liebenswerter.
Informationstheorie Begr. von Claude Shannon
Akustische Modelle der Sprachproduktion
© lok-datenbank.de lok-datenbank.de. © lok-datenbank.de lok-datenbank.de Das Team An der Entwicklung des lok-datenbank-Konzeptes sind.
Präsentation Projektarbeit Projektarbeit vom – Erstellt von Michael Schilling 2005.
2 Grundlagen In diesem Abschnitt werden die Grundbegriffe und Methoden der Theorie der formalen Sprachen und der Automaten wiederholt, soweit diese ben.
Greenstone. Theoretischer Teil Entstehung: Entwickelt vom New Zealand Digital Library Project an der Universität von Waikato Kooperation mit der UNESCO.
Etikettierungsstrukturen und Abfragen in Emu Jonathan Harrington.
Sommersemester 2012 Bistra Andreeva FR 4.7 Phonetik Universität des Saarlandes Einführung in die Instrumentalphonetik.
Einführung in die Phonetik und Phonologie
Jonathan Harrington Beziehung zwischen Phonetik und Phonologie Institut für Phonetik und Sprachverarbeitung, Universität München.
► In einem Test werden 10 norwegische Verben gezeigt, wobei bei jedem Verb anstelle einer deutschen Übersetzung ein akustisches Signal oder ein Bild steht:
Einführung in die Phonetik und Phonologie SS 2010 Bistra Andreeva Sitzung 1: Einführender Überblick.
Von Wietlisbach, Lenzin und Winter
Von Wietlisbach, Lenzin und Winter
 Präsentation transkript:

Grundlagen der Analyse von Sprachdatenbanken Jonathan Harrington

Die Laborsprache Fast alle Untersuchungen in der Experimentalphonetik im 20 Jahrhundert befassen sich mit der Laborsprache. Warum? ‘Competence/performance’ Trennung in Chomsky & Halle (1968). Nur die Laborsprache ist relevant für die phonologische Darstellung von Wörtern…daher kaum eine Befassung im ‘SPE’ mit Intonation, Prosodie, Spontansprache. Synthese u. Perzeptionsexperimente (Haskins Labs.). Seit 1950 eine Beschäftigung mit den minimalen akustischen Unterschieden (perceptual cues) zwischen Phonemen. Fortschritte in der Sprachsynthese: durch die Analyse von isolierten, laborgesprochenen Silben.

Warum Die Laborsprache? Technische Überlegungen. Bis mitte der 80er Jahre: Kaum Möglichkeiten mehr als 15 Sekunden digitaler Sprache zu speichern . Festplatten meistens nicht größer als 500 mB für das gesamte Labor. . 3 – 4 Minuten um einen Spektrogramm digital darzustellen. .

Der Bedarf an Sprachdatenbanken . Entsteht in den 80er Jahren wegen der Entwicklung von Systemen, die die gesprochene Sprache automatisch erkennen sollen . Um solche Systeme zu erstellen, muss die Variabilität der gesprochenen Sprache (Änderungen wegen der Sprechgeschwindigkeit, Sprecherunterschiede) modelliert werden. . Jedoch kann die Variabilität (wegen Sprecherunterschiede, Spontansprache usw.) nur in einem sehr umfangreichen Sprachdatenbank modelliert werden.

Sprachdatenbanken Was sind Sprachdatenbanken? Sammlung von Sprechdaten Hierzu können gehören: Zeitsignale (digital): akustische, artikulatorische Aus dem Zeitsignal abgeleitete Signale z.Bsp. spektrale Daten Etikettierungen der Signale: Verknüpfung von Signalteilen an Symbole

Probleme in der Entwicklung von Sprachdatenbanken seit 1985 Was soll augenommen werden ? (sogar hier konnten die Phonetiker kaum helfen, wegen ihrer Beschäftigung mit der Laborsprache) Keine Infrastruktur. Die Erstellung von Sprachdatenbanken ist arbeitsintensiv und verlangt Kooperationen zwischen Laboren. Aber es gab weder Software noch Hardware um umfangreiche S-Datenbanken miteinander zu entwickeln (und kein Internet!). Keine Richtlinien für die Etikettierung. Was sollte man etiketterien und wie (welche Einheiten usw.)? Theorie-neutral. Viele Phonetiker hielten sich davon fern, weil der Aufbau von Sprachdatenbanken als ein uninteressantes, theorie-neutrales Problem betrachetet wurde.

Sprachdatenbanken heutzutage 1. Mehrere Sprachdatenbanken sind heutzutage vorhanden, z.B. Linguistic Data Consortium (LDC) . Bavarian archive for speech signals . Tones and Break Indices (für prosodische Etikettierung) . IPDS Kiel corpus of spontaneous speech . 2. ‘Open-source’ Software für die Analyse von Sprachdatenbanken und für die digitale Sprachverarbeitung kann jetzt vom Netz heruntergeladen werden.

Jedoch: Sind nur die wenigsten Sprachdatenbanken etikettiert worden . . Ist der größte Mehrteil von S-datenbanken für die englische Sprache . kaum allgemeine Richtlinien, wie Sprachdatenbanken etikettiert werden sollen (daher werden etikettierte S-Datenbanken zu wenig zwischen Laboren ausgetauscht).

Aufbau & Funktion von Sprachdatenbanken Erstellung Analyse Abfrage Praat, EMU EMU EMU-R Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen Signalverarbeitung abgeleitete Signale (z.B. spektrale Daten) Die Signale davon Abfrage Graphik Statistik Weitere Signalverarbeitung p << 0.001 Signale Etikettierung Eine Liste ausgewählter Symbole mit Zeiten Abfrage

Aufbau einer Sprachdatenbank: Software Praat: Doing Phonetics by Computer. Phonetik Institut, Amsterdam, 1998- http://www.praat.org EMU: Ein System für die Analyse von Sprachdatenbanken 1988- Macquarie Universität, Sydney und IPDS, Kiel http://emu.sourceforge.net/ R: Eine allgemeine Programmiersprache. Das ‘open-source’ Äquivalent von der ‘S’ (‘Splus’) Programmiersprache. 1988- http://www.r-project.org/

1. Sprachdatenbank Erstellung Digitalisierung, Signalverarbeitung, Etikettieren. Konvertierung EMU Praat Der Etikettierungen

1. Sprachdatenbank Erstellung EMU: Hierarchiches Etiketterien

1. Sprachdatenbank Erstellung Signalverarbeitung: tkassp (ASSP in EMU) z.B. alle wav-Dateien einer Sprachdatenbank

2. Sprachdatenbank Abfrage EMU z.B. Alle Vokale in Wortinitialen Silben und deren ersten 2 Formanten zum zeitlichen Mittelpunkt finden x

3. Sprachdatenbank Analyse R Programmiersprache, und in R-EMU Funktionen z.B. F1 x F2 Verteilung von [I a U] in einer Sprachendatenbank 200 I A I U 300 U U U U U U U U U U U U U U U U U U A U U U U 400 A U A U F1 (Hz) A A U A A A A A A A A A A A 500 A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A A 600 A A A A A A A A A A A A A A A A A A A A 700 A A A 2500 2000 1500 1000 F2 (Hz)