Phonemische und phonetische Darstellungen von Lauten

Slides:



Advertisements
Ähnliche Präsentationen
Spektrale Analysen in EMU-R: eine Einführung
Advertisements

Die Phonetik der Gipfel-Synchronisierung Jonathan Harrington Eine Zusammenfassung von: Silverman & Pierrehumbert (1990), the timing of prenuclear high.
Morphem und Allomorph Jonathan Harrington.
Die Satzprosodie Phrasengrenzen, Akzentuierung, Intonation.
Die akustische Analyse von Sprachlauten.
Quellen-Filter Theorie der Sprachproduktion
Die phonetischen Merkmale von Vokalen
Prosodie unterhalb des Wortes
Die akustische Analyse von Sprachlauten
Spektra von periodischen Signalen. Resonanz.
Formant-Analysen von Vokalen
Tina John Ebenen und Links in Sprachdatenbanken. Ebenen = Symbole werden mit der Zeit in einer Ebene verbunden. Namen der Ebenen Symbole der Word-Ebene.
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
FRIKATIVE Sitzung 9 Welche Konsonanten sind für sich alleine identifizierbar? -Alle Konsonanten ausser [pt] in tippt, weil das [p] nicht gelöst wird und.
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
Einführung in die Phonetik und Phonologie
Laden einer Signaldatei
Laden einer Signaldatei n Datei ip001rb.001 im Verzeichnis /proj/courses/InstrPhon-ss12/DATEN laden Sitzung 3.
Die akustische Analyse von Sprachlauten
Mikro und Makroprosodie
Spektrale Analysen in EMU-R: eine Einführung Jonathan Harrington.
Die Varianzanalyse Jonathan Harrington.
Spektrale Analysen in EMU-R: eine Einführung
Die Funktion und Form der Intonation
Mixed Models Jonathan Harrington library(ez) library(lme4)
Die Phonetik und Sprachverarbeitung
Berechnung von digitalen Signalen
Berechnung von digitalen Signalen Jonathan Harrington.
Sprachproduktion- und Sprachperzeption
Merkmale der Wortbetonung
Spektrale Analysen in EMU-R: eine Einführung
Vokale und die Quantaltheorie
1. Satzbetonung, Töne, und Grundfrequenz
Prosodie und Intonation: ein Überblick
Prosodie und Intonation: ein Überblick
Die Prosodie Jonathan Harrington Felicitas Kleber.
Frequenz- und Zeitauflösung
Die Anatomie der Grundfrequenz Jonathan Harrington.
Grundlagen der Analyse von Sprachdatenbanken
Artikulationsstelle, F2-Locus, Locusgleichungen Jonathan Harrington.
Etikettierungsebenen Jonathan Harrington. Das Ziel Etikettierungen verschiedener Ebenen aufzubauen, und miteinander zu verlinken.
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Was ist die artikulatorische Grundlage von Locus-Gleichungen? Hauptseminar: Modelle der Sprachproduktion & - perzeption Dozent: Prof. Dr. Jonathan Harrington.
Was sind die unterschiedlichen Vorhersagen der Quantal Theory (QT) und der Theory of Adaptive Dispersion (TAD) bezüglich der Verteilung der Vokale in den.
Lautwandel, Perzeption, Kompensierung für Koartikulation.
Was ist laut Stevens die Beziehung zwischen dem akustischen Signal, distinktiven Merkmalen und dem Lexikon?
Kategoriale Wahrnehmung
Linguistik Stellen Sie Fragen zum Text (schauen Sie auf Ihre Unterlagen)! Versuchen Sie die gestellten Fragen zu beantworten!
Manchmal frage ich mich:
Beziehung zwischen Phonetik und Phonologie
Mohammad Es ist einfach geboren zu werden, aber es ist ganz schwierig Mensch zu sein.
Varianzanalyse mit Messwiederholungen
Die synchronen Grundlagen des Lautwandels Jonathan Harrington.
Manchmal frage ich mich:
Zusammenfassung von Hombert et al (1979) und Löfqvist (1989)
Einfach so zum Lesen und Nachdenken
Plosive [a d a] [a t a] [a th a]
Nehm dir Zeit, um die Botschaft zu lesen.
Grammatikalische Begriffe im Unterricht
3. Sitzung K3.1 Phonetik und Phonologie II
Etikettierungsstrukturen und Abfragen in Emu Jonathan Harrington.
R r R V®˜ // Phonologie Phonetik Tiefenstruktur ( underlying structure ) Oberflächenstruktur (surface structure) alveolarer Trill uvularer Trill stimmhafter.
ST X : What You Hear Is What You See Acoustics Research Institute of the Austrian Academy of Sciences: A-1010 Wien; Liebiggasse 5. Tel /
Einführung in die Phonetik und Phonologie  Grundbegriffe.
Jonathan Harrington Beziehung zwischen Phonetik und Phonologie Institut für Phonetik und Sprachverarbeitung, Universität München.
Phonetik und Phonologie
Phonetik und Phonologie
Mikro und Makroprosodie
Die Anatomie der Grundfrequenz
 Präsentation transkript:

Phonemische und phonetische Darstellungen von Lauten Jonathan Harrington

Zwei abstrakte Ebenen der Lautdarstellung 1. Phonetische Ebene Eine Ebene der Lautdarstellung, in der die sprecherbedingten Aspekte (zB männlich/weiblich) nicht berücksichtigt werden. [i:] (männlich) [i:] (weiblich, selber Dialekt) 2. Phonemische Ebene Eine noch abstraktere Darstellung: Hier werden die voraussagbaren Aspekte der Aussprache aus der phonetischen Ebene entfernt

Phonetische und phonemische Ebenen zB ist in Deutsch die Aspiration ein voraussagbarer Aspekt der Aussprache – denn die Aspiration kommt nur vor, wenn orale Plosive silbeninitial sind – nach [S] gibt es keine Aspiration. Phonetische Ebene: [phEC] Phonemische Ebene: /pEC/ [SpECt] /SpECt/ ‘Pech’ ‘Specht’

Die phonetische Ebene Besteht aus unendlich vielen Phonen (transkribiert in [ ]) Unendlich viel, weil: Es unendlich viele Weisen gibt, auf die dasselbe Wort erzeugt werden kann (sogar dieselbe Person erzeugt nie zwei Mal dasselbe Wort auf genau dieselbe Weise). die Sprache kontinuierlich ist, und es daher keine klaren Kriterien gibt, wieviele Phone benötigt werden, um ein Sprachsignal aufzuteilen.

Das Segmentationsproblem führt zu unendlich viel Phonen Jungs ? Offenbar kein [j] und kein [U]. Sondern? j ? N U

Die Phonemische Ebene Besteht aus einer endlichen Anzahl von Phonemen (in / / transkribiert), die die Bausteine von Wörtern sind (Wörter werden aus Phonemen nicht aus Phonen zusammengesetzt). Ein Phonem wie /p/ ist ein abstrakter Begriff, der in unterschiedlichen Kontexten unterschiedliche (phonetische) Werte hat. Eine Analogie: wir wissen, was ein Stuhl ist, nicht nur wegen seiner physikalischen Merkmale (Analogie: Phonetik), sondern auch wegen seiner Funktion (Analogie: Phonologie) im Verhältnis zu den anderen Möbelstücken.

Ebenso wie /p/ kann der abstrakte Begriff ‘Stuhl’ in verschiedenen Kontexten sämtliche unterschiedliche Werte haben…. Diese Gegenstände fungieren alle als Stühle, sie sind aber in den jeweiligen Kontexten physikalisch deutlich unterschiedlich.

Phoneme und der Wortschatz Ohne Phoneme könnte das Lexikon (Wortschatz) in menschlichen Sprachen nie groß genug werden. In einer hypothetischen Sprache mit 5 Phonemen, K = /p t k/, V = /a i/ kann man bereits 12 einsilbige KV und VK Wörter (Bedeutungen) bekommen. /pa ta ka pi ti ki ap at ak ip it ik/ Erheblich mehr Kombinationen wenn die Sprache auch diese Kombinationen erlaubt: Konsonantenreihenfolgen: /pakt/, /pikt/ Mehrsilbige Wörter: /papa piti/ KVK Silben: /pap pik/ usw.

Tiersprachen, Menschensprachen, Phoneme Die Beziehung zwischen Sprachlauten und Bedeutung ist in menschlichen Sprachen wegen Phoneme notwendigerweise arbiträr (abgesehen von ein paar lautmalerischen Wörtern – zB Peng!). Tiersprachen haben keine Phoneme: die Beziehung zwischen Bedeutung und Laute ist daher nicht-arbiträr z.B. gibt es keine Tiersprache, die eine neue Bedeutung auf diese Weise erzeugen kann : /la:m/ ® /ma:l/ (‘lahm’ ® ‘mal’) ein besonderer Schrei ‘A’ = ‘Vorsicht’; ein anderer Schrei ‘B’ = ‘ich habe Hunger’ usw; aber keine neue Bedeutung, die aus A+B (oder B+A) zusammengesetzt wird.

Kognitives Modell: wie wir ein Wort lesen Wozu braucht man diese Regeln? Warum nicht einfach /kyn/ /ku/ erzeugen?

Warum phonetische Regeln? Wegen Koartikulation In der Erzeugung der Sprache werden Phoneme parallel, teilweise gleichzeitig, erzeugt zB – /gl/ in ‘Glück’ wird wegen des folgenden /Y/ Vokals mit gerundeten Lippen erzeugt – man vergleiche ‘Glas’ [glYk gla:s] w w Um prosodische Einheiten zu vermitteln zB die starke Aspiration in ‘Pech’, ‘Teich’, ‘Koch’ usw. vermittelt dem Hörer, dass diese Laute am Anfang einer Silbe vorkommen.

Phoneme und Allophone Man nennt Phone (=die Einheiten der phonetischen Ebene) manchmal Allophone, wenn man deren Zuordnung zu ihren jeweiligen Phonemen verdeutlichen will Diese Beziehung kann auf diese Weise dargestellt werden: Phonem /p/ /Stuhl/ [Thron, Sessellift, Sitzsack…] Allophone von /p/ [ph] [p]

Die phonemische Zuordnung von Allophonen Allophone vom selben Phonem haben meistens eine komplementäre Verteilung – dies bedeutet, sie werden meistens in unterschiedlichen Kontexten gefunden* zB sind [C x X] im Deutschen komplementär verteilt: [x] (velar): ‘Buch’, ‘fluchen’ (V = hoch, hinten) [X] (uvular): ‘doch’, ‘lachen’ (V= offen oder halb-offen) [C] (palatal): ‘riech’, ‘Löcher’, ‘Tücher’, 'Dolch' (alle anderen Kontexte) * Der entsprechende Analog: ein Sitzsack und ein Thron sind komplementär verteilt, da sie meistens in unterschiedlichen Kontexten vorkommen

Allophon-Phonem-Beziehungen (fortgesetzt) Allophone verschiedener Phoneme haben eine kontrastive Verteilung (weil es durch deren Ausstausch zu einem Kontrast in der Bedeutung führen kann). Allophone verschiedener Phoneme kommen oft im selben Kontext vor: zB: [daIn] ‘dein’ [baIn] ‘Bein’ [maIn] ‘mein’ /d/ [d] /b/ [b] /m/ [m]

Phoneme, Allophone, Bedeutung /C/ [C] [x] [X] Es kommt zu keiner Änderung in der Bedeutung, wenn Allophone desselben Phonems ausgetauscht werden (zB wenn wir ‘machen’ ausnahmsweise mit [C] statt dem üblichen [X] erzeugen). Der Austausch von Phonemen (d.h. Allophone unterschiedlicher Phoneme) hat oft eine Änderung in der Bedeutung zur Folge: [d] ® [b] Austausch: ‘dein’ ® ‘Bein’ usw. Ein Minimalpaar = zwei Wörter, die sich nur in einem Phonem unterscheiden. /daIn/, /baIn/

Phoneme, Allophone und die Sprachwahrnehmung Die Unterschiede zwischen Allophonen desselben Phonems werden meistens nicht wahrgenommen (weil sie für Bedeutungsunterschiede nicht relevant sind). zB sind hier zwei Wörter aus Ewe (einer Sprache in Ghana, Afrika). Sind es dieselben Konsonante (K) oder nicht? [eKe] [eBe] [eve] = Ewe (die Sprache) = zwei

Wir nehmen diesen Unterschied nicht wahr, weil in Deutsch: [B] /v/ [v] Ewe Sprecher hören aber denselben Unterschieg ganz deutlich, weil in Ewe: [B] /B/ /v/ [v] Ebenfalls: der Grund weshalb Koreaner und Japaner oft ‘r’ und ‘l’ verwechseln, hat nichts mit deren Sprachproduktionsfähigkeiten zu tun, sondern weil: [l] /l/ /r/ [r] Deutsch [r] /l/ [l] Koreanisch

Phoneme und Spracherwerb Die Forschung in den letzten paar Jahren zeigt1: Babies unter 6-9 Monaten nehmen ganz feine phonetische Unterschiede (also Allophone) wahr. Ab 9-12 Monaten jedoch (die Zeit, zu der sie die ersten Wörter bilden) geht diese phonetische Fähigkeit in der Muttersprache verloren: wahrscheinlich indem sie lernen, ihre Wahrnehmungen auf phonemische Unterschiede einzustellen (also allophonische Unterschiede desselben Phonems auszublenden) . 1. z.B. Kuhl et al, (1997). Cross-language analysis of phonetic units in language addressed to infants. Science, 227, 684-686

Head-turning paradigm Ein Baby wird belohnt wenn es ein neues Laut erkennt: 1. Ein Baby wird durch ein Spielzeug abgelenkt während [ba ba ba ba ba] über einen Lautsprecher abgespielt wird In Pickett, J. 1998, the Acoustics of Speech Communication

2. [ba ba ba da da da…] 4. Und ein anderes Spielzeug wird in dem Kasten gleichzeitig beleuchtet (ah! interessant = Belohnung) 3. Das Baby dreht den Kopf (weil es den [ba da] Unterschied wahrnimmt).

Zusammenfassung In jeder Sprache gibt es eine endliche Anzahl von Phonemen, die dazu gebraucht werden, Wörter (Bedeutungen) voneinander zu unterscheiden Allophone vom selben Phonem haben meistens eine komplementäre Verteilung und sind vom Kontext voraussagbar (daher für Bedeutungsunterschiede nicht aussagekräftig). Man hört meistens nur den Unterschied zwischen Lauten, wenn sie unterschiedlichen Phonemen gehören (= dazu verwendet werden, um Bedeutungen voneinander zu unterscheiden).

Bitte Fragen 1-4 auf Seiten 33-34 von beantworten

Zeitauflösung in Sekunden = 1/Frequenzauflösung Hz 12. Was bedeutet ‘Zeitauflösung’? Die Zeitauflösung ist das kleinste Zeitintervall, mit dem zwei Ereignisse zeitlich unterschieden werden. Berechnen Sie die Zeitauflösung bei einer Fourier-Analyse mit einer Frequenz-Auflösung von 500 Hz. Zeitauflösung in Sekunden = 1/Frequenzauflösung Hz Zeitauflösung = 1/500 s = 2 Millisekunden.

13. Wir möchten eine Breitbandanalyse durchführen, um die Formanten in Spektrogrammen deutlich sehen zu können. Inwiefern muss sich generell die Zeitauflösung in der Analyse von männlichen und weiblichen Stimmen unterscheiden, und warum? a. die Frequenzauflösung muss größer als der Abstand zwischen den Harmonischen sein (weil wir die Harmonischen nicht sehen wollen). b. Die Grundfrequenz bei Frauen ist höher - daher muss wegen a. die Frequenzauflösung größer sein. c. Wegen b. muss die Zeitauflösung bei Frauen kleiner sein, da die Zeitauflösung = 1/Frequenzauflösung (also je größer die Frequenzauflösung, umso kleiner die Zeitauflösung).

Die Periodendauer ist ca. 5-6 ms. 14. Das Zeitsignal in (a) wird mit einem Fenster von 8 ms analysiert. Berechnen Sie, ob die Harmonischen im Spektrum erscheinen werden. Die Periodendauer ist ca. 5-6 ms. Die Harmonischen werden im Spektrum erscheinen, wenn das Fenster (die Zeitauflösung) größer als die Periodendauer ist.

Oder: Die Harmonischen erscheinen wenn die Frequenzauflösung kleiner als die Grundfrequenz ist. Bei einer Periodendauer von 5 ms ist die Grundfrequenz (f0): 1/.005 Hz = 200 Hz Für ein Fenster von 8 ms ist die Frequenzauflösung 1/.008 Hz = 125 Hz Daher erscheinen die Harmonischen im Spektrogramm.

Die Dauer vom langen Pfeil ist ca. 145 ms. 15. Berechnen Sie die durchschnittliche Grundfrequenz in dem Spektrogramm in (b) für das Intervall, das mit dem längeren Pfeil markiert ist. Die Dauer vom langen Pfeil ist ca. 145 ms. Es gibt 14 Schließungen der Stimmlippen in diesem Zeitinterval 50 ms Daher 14/145 Schließungen pro Millisekunde Daher 1000 x 14/145 = ca. 96.5 Schließungen pro Sekunde = die Grundfrequenz (Hz)