Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.

Slides:



Advertisements
Ähnliche Präsentationen
Aufbau, Abfrage, Analyse von Sprachdatenbanken
Advertisements

Spektrale Analysen in EMU-R: eine Einführung
Eine RDF Konvention für die Beschreibung phonetischer Ressourcen im Semantic Web Hauptseminar: Historisch-Kulturwissenschaftliche Objekte im Semantic Web.
Die Satzprosodie Phrasengrenzen, Akzentuierung, Intonation.
Die akustische Analyse von Sprachlauten.
Quellen-Filter Theorie der Sprachproduktion
Die phonetischen Merkmale von Vokalen
Die akustische Analyse von Sprachlauten
Spektra von periodischen Signalen. Resonanz.
Formant-Analysen von Vokalen
Software Praat: Doing Phonetics by Computer. Phonetik Institut, Amsterdam, EMU: Ein System für die Analyse von Sprachdatenbanken Macquarie.
Tina John Ebenen und Links in Sprachdatenbanken. Ebenen = Symbole werden mit der Zeit in einer Ebene verbunden. Namen der Ebenen Symbole der Word-Ebene.
Software Praat: Doing Phonetics by Computer. Phonetik Institut, Amsterdam, EMU: Ein System für die Analyse von Sprachdatenbanken Macquarie.
ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen Signalverarbeitung abgeleitete Signale.
Software Praat: Doing Phonetics by Computer. Phonetik Institut, Amsterdam, EMU: Ein System für die Analyse von Sprachdatenbanken Macquarie.
Automatische Etikettierung in Sprachdatenbanken Tina John.
Grundlagen der Analyse von Sprachdatenbanken
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
FRIKATIVE Sitzung 9 Welche Konsonanten sind für sich alleine identifizierbar? -Alle Konsonanten ausser [pt] in tippt, weil das [p] nicht gelöst wird und.
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
Sitzung 9 FRIKATIVE /Tondateien/Frikative/bach-traegt-wenig-wasser.wav: Der Bach trägt dieses Jahr wenig Wasser. /Tondateien/Frikative/schickt-er-blumengruesse.wav:
Spektrogramm und Spektrum
Anschließen des Rekorders n Anschließen des Kassetten- oder DAT -Recorders: n Die beiden Ausgänge (line out) des Rekorders werden mit den Eingängen (line.
Voice Onset Time (VOT) n ip006rb.001 laden Die Lallphase dauert nicht lange ip001rb.001 laden Peter tippt auf die Kieler - Wie unterscheidet sich [d] in.
Einführung in die Phonetik und Phonologie
Spektrogramm und Spektrum Sitzung 8 Welche Konsonanten sind für sich alleine identifizierbar? -Alle Konsonanten ausser [pt] in tippt, weil das [p] nicht.
Aufnahmen n An dem ersten CSL-Gerät ist keine Aufnahme möglich Sitzung 2.
Starten von Multi-Speech Starten des Systems: n PC einschalten n Icon für Multi-Speech auf dem Desktop anklicken n Multi-Speech Main Program wählen Sitzung.
Phonetische Dauermessungen n c:\daten\instrpho\ip006rb.001 in Fenster A laden Die Lallphase dauert nicht lange c:\daten\instrpho\ip001rb.001 in Fenster.
Übung Akustische Phonetik
Adaptive Dispersion in der Wahrnehmung von Vokale
Logische Vektoren in R Jonathan Harrington.
Spektrale Analysen in EMU-R: eine Einführung Jonathan Harrington.
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Die Varianzanalyse Jonathan Harrington.
Formant-Analysen von Vokalen
Spektrale Analysen in EMU-R: eine Einführung
Grundlagen der R Programmiersprache
Anwendung von Emu-TCL Jonathan Harrington.
Formant-Analysen von Vokalen (2) Jonathan Harrington 1, 2 Struktur und Abbildung einer Trackdatei 3, 4. Anwendung von vorhandenen und eigenen Funktionen.
Berechnung von digitalen Signalen
Berechnung von digitalen Signalen Jonathan Harrington.
Sprachproduktion- und Sprachperzeption
Spektrale Analysen in EMU-R: eine Einführung
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Vokale und die Quantaltheorie
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
1. Satzbetonung, Töne, und Grundfrequenz
Abfragen aus einer Sprachdatenbank Jonathan Harrington.
Frequenz- und Zeitauflösung
Parametrisierung von Spektra
Abfragen aus einer Sprachdatenbank Jonathan Harrington.
Grundlagen der Analyse von Sprachdatenbanken
Etikettierungsebenen Jonathan Harrington. Das Ziel Etikettierungen verschiedener Ebenen aufzubauen, und miteinander zu verlinken.
Was ist laut Stevens die Beziehung zwischen dem akustischen Signal, distinktiven Merkmalen und dem Lexikon?
HLSyn – eine Kurzeinführung
Einige Kriterien für die Durchführung einer Varianzanalyse Jonathan Harrington.
Stella Müller, Dr. Robert Mores Eine LPC-basierte Extraktion der Vokalqualität zur Darstellung von Violinklängen im Vokaldiagramm Vokale in Klängen Stella.
Zusammenfassung von Hombert et al (1979) und Löfqvist (1989)
Plosive [a d a] [a t a] [a th a]
Maya Kindler 5c. 1.Voraussetzungen für die Installation 2.Installation 3.Template lade, installieren und anpassen 4.Kategorie und Inhalt 5.Menü.
Maya Kindler 5c. 1.Voraussetzungen für die Installation 2.Installation 3.Template lade, installieren und anpassen 4.Kategorie und Inhalt 5.Menü.
Verbindung zwischen Praat und EMU Tina John. Etikettierungen: Praat zu EMU labeller 1. Praat Etikettierung4. EMU Etikettierung 2. labConvert: Konvertiert.
3. Sitzung K3.1 Phonetik und Phonologie II
Etikettierungsstrukturen und Abfragen in Emu Jonathan Harrington.
Sommersemester 2012 Bistra Andreeva FR 4.7 Phonetik Universität des Saarlandes Einführung in die Instrumentalphonetik.
ST X : What You Hear Is What You See Acoustics Research Institute of the Austrian Academy of Sciences: A-1010 Wien; Liebiggasse 5. Tel /
Phonetische Dauermessungen n ip006rb.wav laden “Die Lallphase dauert nicht lange” ip001rb.wav laden “Peter tippt auf die Kieler” - Wie unterscheidet sich.
Plosive [a d a] [a t a] [a th a]
Plosive [a d a] [a t a] [a th a]
 Präsentation transkript:

Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen Signalverarbeitung abgeleitete Signale (z.B. spektrale Daten) Eine Liste ausgewählter Symbole mit Zeiten Abfrage Die Signale davon Abfrage Signale Etikettierung Graphik Statistik Weitere Signalverarbeitung p << Praat, EmuEmu R

Praat-Emu-R Verbindungen Siehe auch Video Demo (Link auch in der Webseite) -> Video Tutorials -> Chapter 2

Die Forschungsfragen Ist die Überlappung zwischen /t/ und /d/ größer in dreisilbigen im Vergleich zu einsilbigen Wörtern? Liegt VOT von / ʃ t/ zwischen den VOT-Werten von /t/ und /d/, oder eher näher an /d/? Datenbank sabinevot.zip installieren (über dbanken.txt in der Webseite)

Verschluss: t oder d oder St VOT: h Signale und Etikettierungen

Dauer von Tanzboden bzw. jmh bzw. 3 in dieser Äußerung Etikettierungsstruktur Bedeutet: Der Segment Tanzboden besteht aus einer Reihenfolge von t und h Bedeutet: jmh und 3 sind Merkmale (Beschreibungen) von Tanzboden } Tanzboden (daher auch jmh und 3 ) hat keine eigene Dauer: sie erbt die Dauern aus der Phonetik Ebene.

Signalverarbeitung

Die Signalverarbeitung Das Ziel in diesem Fall, ist ein Signal zu bekommen, womit wir besser einschätzen können, wo die Grenze zwischen dem Frikativen und Verschluss liegt ?

Der Frikativ hat wesentlich mehr Energie zwischen ca. 2-9 kHz als der Verschluss. Wir könnten daher das Signal ca. in diesem Frequenzbereich filtern (sodass alle Teile vom Signal außerhalb dieses Frequenzbereichs herausgefiltert werden) und dann die Intensität von diesem gefilterten Signal berechnen. Diese Intensität müsste dann ziemlich steil (hoffentlich!) umkippen an der Grenze zwischen diesen Lauten. Vorschlag

Gefiltertes Signal und Intensität davon

Vorgang 3. wav Dateien filtern und in 1. speichern. 4. Die Intensität dieser gefilterten Dateien berechnen und auch 1. speichern 5. Die Template-Datei modifizieren, sodass nur das Spektrogramm + berechnetes Intensitäts-Signal sichtbar sind. 1. Ein Verzeichnis erzeugen (beliebiger Name): hier werden alle von den wav-Dateien abgeleiten Signale (wie die gefilterten Signale) gespeichert. 2. Verzeichnis-Name bitte notieren!

Berechnung von Formanten Akustisch lässt sich Vokalqualität durch die ersten zwei Formanten unterscheiden. F1 niedrig hoch F2 hochniedrig iu a e o

Unser Ziel ist festzustellen, ob wir eine ähnliche Verteilung für mehrere Vokale aus einer Sprachdatenbank bekommen...

Zwei Sprecher, Standarddeutsch, 4 verschiedene Vokale, gelesene Sprache

Sprachdatenbank second herunterladen

Vorgang 1. Signalverarbeitung fuer die Formantberechnung anwenden Weibliche Stimmen: Nominal Frequency auf 600 Hz setzen. 3. Verzeichnis auswählen (wo die Formanten gespeichet werden).

2. Template-Datei ändern damit die Formanten in Emu sichtbar sind Vorgang zu beachten: Der Track muss fm sein.

3. F1 und F2 in R dem zeitlichen Mittelpunkt von jedem Vokal entnehmen siehe formant.doc, pdf in der Webseite Vorgang

Wir entnehmen den Vokale Werte zum zeitlichen Mittelpunkt, weil hier der Vokal am wenigsten vom Kontext beeinflusst wird Spektrogramm von 'drüben' mit F2 markiert

Vorgang 4. Vokale-Ellipsen in R abbilden

5. ggf Formantfehler korrigieren 1. Formanten manuell korrigieren 2. Formantfehler Vorgang

Sprachdatenbank: second 1-5 für den Sprecher gam durchführen. Dann 1-5 für die Sprecherin gbr (Beide Sprecher: Standarddeutsch) Wie müssten sich (laut Theorie) die Formanten vom Sprecher und Sprecherin derselben Varietät unterscheiden? Vorgang

Ein Sprecher, eine Sprecherin Standarddeutsch, gemittelte Vokale, gelesene Sätze