Ohalas ‚phonetics and phonology of aspects of assimilation‘

Slides:



Advertisements
Ähnliche Präsentationen
Die Phonetik der Gipfel-Synchronisierung Jonathan Harrington Eine Zusammenfassung von: Silverman & Pierrehumbert (1990), the timing of prenuclear high.
Advertisements

Hauptseminar Prosodie
TECHNISCHE UNIVERSITÄT DARMSTADT Naive Bayes for Ranking
Fragetechnik statt Sagetechnik
On a Buzzword: Hierachical Structure David Parnas.
Die Satzprosodie Phrasengrenzen, Akzentuierung, Intonation.
Autosegmental-Metrische Phonologie und ToBI
Klaus J. Kohler IPDS, Kiel
Bistra Andreeva, Institut für Phonetik, Universität des Saarlandes.
Gliederung Vertrauensintervalle Arten von Hypothesen
Versuch zur Vokalnormalisierung
“The end of categorical perception as we know it” (Schouten et al.)
Bärbel Arnds und Lia Saki Bucar Shigemori
Adaptive Dispersion in der Wahrnehmung von Vokale
Perzeptuelle Kompensation von Koartikulation bei japanischen Wachteln A. J. Lotto, K. R. Kluender, L. L. Holt. Perceptual compensation for coarticulation.
Mikro und Makroprosodie
Wie wird die koartikulatorische Nasalisierung im Signal wahrgenommen?
Das Lautwandel-Modell von John Ohala
Die Phonetik und Sprachverarbeitung
Die phonetischen Grundlagen des Lautwandels
„Lautwandel und Grundfrequenz“
1. Satzbetonung, Töne, und Grundfrequenz
Prosodie und Intonation: ein Überblick
Die Prosodie Jonathan Harrington Felicitas Kleber.
Intonationsunterschiede zwischen dem Nord- und Süddeutschen
Die Anatomie der Grundfrequenz Jonathan Harrington.
1 C.Fowler Analyse der Wahrnehmung von Koartikulierter Sprache LMU-München - IPSK WS 06/07 HS Modelle der Sprachproduktion und –perzeption Prof. J.M.
Ist Intonation kategorial? Empirische Methoden und Evidenzen
Die Normalisierung und Wahrnehmung eines fremden Akzents Datum: Referentin: Carolin Funk Dozent: Prof. Dr. Jonathan Harrington Hauptseminar:
Dissimilation und ihre Bedeutung für den diachronen Lautwandel
HS: Phonetische Grundlagen des Lautwandels
Phonetische und Phonologische Aspekte der Assimilierung
Mehr dazu im Paper (und mehr über die Perzeption des Hörers als Quelle eines Lautwandels auch unter folgendem Lautwandel-Link)Lautwandel-Link Ein Beispiel.
Transkription der Intonation mit GTOBI
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Was ist die artikulatorische Grundlage von Locus-Gleichungen? Hauptseminar: Modelle der Sprachproduktion & - perzeption Dozent: Prof. Dr. Jonathan Harrington.
Lautwandel, Perzeption, Kompensierung für Koartikulation.
Was ist laut Stevens die Beziehung zwischen dem akustischen Signal, distinktiven Merkmalen und dem Lexikon?
Hypothesen testen: Grundidee
Kategoriale Wahrnehmung
Tutorium
Wiederholung: Einfache Regressionsgleichung
DÄMONEN Dämonen existieren nicht! Sie entstehen in unserem Kopf!
HLSyn – eine Kurzeinführung
Da ist was dran ! Michael war so eine Art Typ,
die Kraft aller Elemente
Information und Kommunikation Hartmut Klauck Universität Frankfurt SS
Die synchronen Grundlagen des Lautwandels Jonathan Harrington.
die Kraft aller Elemente
ELP-TT Training teachers to use the European Language Portfolio EFSZ-Kurzprojekt ELP_TT2 Heike Speitz, Norwegen.
Sprachproduktion und Sprachwahrnehmung
Zusammenfassung von Hombert et al (1979) und Löfqvist (1989)
Gefühlswelt
Experimentelle Mathematik. Dabei muss betont werden, dass Mathematik nicht allein in sogenannten „exakten Schlussfolgerungen“ oder gar.
Da ist was dran! „Wenn es mir besser gehen würde,
Bildung und Soziales für Muslime Tagebuch zum Thema „Ulum al Quran“ Medienbibliothek-islam.de.
Jonathan Harrington: "Die phonetischen Grundlagen des Lautwandels“
E r f a h r u n g e n.
The link between leadership and followership: How affirming social identity translates vision into action. Projektarbeit Sozialpsychologie: Soziale Identität.
Evidence for Conditional Sex Differences in Emotional but Not in Sexual Jealousy at the Automatic Level of Cognitive Processing L. Penke and J.B. Asendorpf.
Friedemann Schulz von Thun Miteinander Reden 1. rororo 1981
K3.1 Phonetik und Phonologie II 8. Sitzung Lautstatistik und Typologie.
Unterricht vorbereiten und durchführen
Chemie Olympiade Forschungsthema: Der Atombau.
Oro-nasalerProzess Einführung in die Phonetik und Phonologie   Oro-nasaler Prozess.
Word order: 1.In a main clause the VERB is the second idea: Helgakommteben aus der Bäckerei This may not be the second word Meiner Meinung nachsind Hobbys.
 Gegenstandsbereich der Testtheorie: Analyse der Charakteristika von Tests:  Güte von Tests.  Struktur von Tests.  Schwierigkeit von Tests.  Gruppenunterschiede.
Einführung in die Phonetik und Phonologie SS 2010 Bistra Andreeva Sitzung 1: Einführender Überblick.
Mikro und Makroprosodie
Stereotypes as Energy-Saving Devices
 Präsentation transkript:

Ohalas ‚phonetics and phonology of aspects of assimilation‘ Ulrich Reubold

Was hat unser Experiment mit folgenden Lautwandeln zu tun? Assimilations of the type given in (I) are extremely common where, when two stops of different place of articulation abut, the first (C1) assimilates totally to the second (C2). (1) L. Latin scriptu > Italian scritto nocte > notte Sanskrit bhaktum > Pali bhattum praptum > pattum Iabdha > laddha Old Irish fret-(frith-) +cor > freccor -frecur *ad-gladam > ac(c)aldam ad+bongid > apaig (Thurneysen 1961 ) Even more common are cases where a nasal assimilates to the place of articulation of a following stop, as exemplified in (2). L. Latin primu tempu > French printemps amita > Old French ante (Mod. French tante) Shona N+tuta > *nthuta > nɦuta N+bato > mõato Zitiert aus: Ohala, John J. 1990. The phonetics and phonology of aspects of assimilation. In Mary E. Beckman & J. Kingston (eds.), Laboratory Phonology I. Between the grammar and physics of speech, 258–275: Cambridge University Press.

In VC1C2V –Folgen (bei denen C2 ein Plosiv ist) verhält es sich offenbar so, dass wesentlich häufiger C1 sich an C2 assimiliert, aber nur sehr selten umgekehrt. Warum dominiert C2?

Was ist der Grund für solche Assimilationen (laut Ohala)? Vielleicht hat der Sprecher Vorteile, in dem er es sich „einfacher“ macht? Laut Ohala sehr unwahrscheinlich, da 1. nicht definiert werden kann, was „einfacher“ ist (im Sinne der Gesamt-„Kosten“) man darf nicht nur berechnen, welche Artikulatoren in welchem Ausmaß bewegt werden müssen (und selbst diese Kosten lassen sich nicht reliabel schätzen), sondern auch die Kosten z.B. neuronaler Vorgänge (lassen sich noch schlechter schätzen) 2. es plausibler erscheint, dass der „faule“ Sprecher bei einer Konsonanten-Folge die Merkmale des ersten Konsonanten übernimmt, was aber nur äußerst selten der Fall ist Überhaupt lehnt es Ohala ab, die Gründe für solche Assimilationen in der Planung oder der Realisierung einer Äußerung innerhalb eines Sprechers zu suchen, da er keine plausible Erklärung in dieser Richtung gegeben sieht (die Gemeinsamkeiten mit richtigen „Versprechern“ sind z.B. sehr gering)… …jeder Sprecher war und ist aber auch Hörer. Vielleicht macht der Initiator eines Lautwandel nichts beim Sprechen „falsch“ oder ist zu „faul“, es „richtig“ zu machen, sondern hat schon vorher (als Hörer also) etwas missinterpretiert?

Gibt es Beweise für eine Missinterpretation durch den Hörer Gibt es Beweise für eine Missinterpretation durch den Hörer? Einige Experimente, die Ohala anführt: Silbenfinale heterorgane Plosiv-Pseudo-Cluster, die durch Splicing erzeugt wurden (enthalten z.B. Transitionen vom Vokal zum Plosiv wie für ein /p/ (C1), aber den burst eines /k/ (C2)), werden trotz der Transitionen von der Mehrheit von Hörern nicht als Cluster, sondern als C2 wahrgenommen z.B. in Malécot (1958) Cues im burst sind besser wahrnehmbar als die Transitionen (? siehe später Fujimura et al 1978) und die Verschlussdauer ist entscheidend, ob ein einzelner Plosiv oder ein Cluster gehört wird Ungelöste silbenfinale Plosive werden oft missidentifiziert (Householder 1956) Nasale werden oft missidentifiziert (z.B. House 1957) Plosive in Plosiv-Vokal-Folgen werden fast immer korrekt identifiziert (Winitz et al 1971)  Wahrscheinlichkeit, dass in VC1C2V –Folgen (C1 entweder Plosiv oder Nasal, C2 heterorganer Plosiv) C2 dominiert, ist hoch

Zahlreiche Experimente (aufgelistet in Ohala 1990) bestätigen: VPlosiv1Plosiv2V (mit einer Verschlussdauer wie für einen einzelnen Plosiv) wahrgenommen als VPlosiv2V z.B. Ohalas eigene Experimente: 1: American English-Sprecher: /a/Plosiv/a/ -Folgen (Plosiv=/bdgptk/) und /a/NasalPlosiv/a/-Folgen (homorgan) in zwei Versionen: 1. Wortakzent auf der ersten und 2. auf der zweiten Silbe durch Splicing der vor der Plosivlösung getrennten Aufnahmen werden Stimuli mit ‚conflicting cues‘ erzeugt American English –Sprecher als Hörer: z.B. (apa – aka – other bzw. anta – ampa - other) Ergebnisse: C2 dominiert generell (93%); kein Einfluss des Wortakzents; kein Enfluss, ob C1 Plosiv oder Nasal war ; aber: höhere Dominanz von C2 bei stimmlosen Plosiven (97% vs. 89%)

2: /a/C1C2/a/ -Folgen („heterorgan“-gesplicte Plosive) mit Variation der Verschlussdauern (stimmlos: 120:170ms; stimmhaft: 70:140 ms)  Antwortmöglichkeiten: z.b. aba – aga - abga  Ergebnis: je länger die Verschlussphase, desto mehr Cluster-Antworten (sth>95 ms; stl>150ms) reflektiert die intrinsisch kürzere Verschlussdauern von stimmhafter Plosiven  Ohala: Missinterpretation durch den Hörer – aber die (gegenüber CV-Transitionen) weniger prominenten VC –Transitionen werden nicht einfach ignoriert, sondern werden – wo linguistische Erfahrung der Hörers es vorschreibt – in die Interpretation des Sprachsignals integriert (daher C2-Dominanz (durch psychologische ‚constraints‘ beeinflusst), die durch C1C2-Clusterwahrnehmung verdrängt wird bei längeren Verschlussdauern (durch linguistische Erfahrung)) Fallen Ihnen hierzu auch Gegenargumente ein? Bedenken Sie auch, dass Ohala damit den Ursprung der Assimilationen in den Beispielen 1 und 2 erklären will…

Weitere interessante Ergebnisse: Fujimura, O. M. J Weitere interessante Ergebnisse: Fujimura, O. M. J. Macchi & La Streeter. 1978. Perception of stop consonants with conflicting transitional cues: A cross-linguistic study. Language and Speech 21(4). 337–346. Tokio-Dialekt-Sprecher: VCV-Folgen, mit V=/a,e,o/ und C=/b,d,g/ in zwei Akzent-Mustern: High-Low vs. Low-High (Japanisch hat pitch accent (vs. stress accent, letzteres wie z.B. Am. Eng.)); NB: Vokalqualität wird im Japanischen weit weniger durch den Wortbetonung beeinflusst (durch Zentralisierung) als im Am.Eng. Durch Splicing conflicting cues-stimuli erzeugt  burst bei C2 wurde weggelassen, die Verschlussphase war von C1 Am.Engl.-Sprecher und Tokio-Dialekt-Sprecher dienten als Hörer; jeweils eine Hälfte hörte vorwärts gespielte Stimuli, die jeweils andere Hälfte rückwärts gespielte Stimuli: b, d, oder g? Ergebnisse: 1. für beiden Sprach-Gruppen dominiert C2 stark 2. für beide Sprach-Gruppen gab es keinen Effekt der Abspielrichtung auf die Anzahl der C2-Antworten 3. es gibt keinen Effekt des Wortakzents auf die Anzahl der C2-Antworten bei Japanisch-Sprechern, wohl aber bei Am.Engl.-Sprechern signifikant mehr C1-Antworten beim High-Low-Akzent gegenüber dem Low-High-Akzent Was könnte dieser Unterschied zwischen AM.Engl. und Japanisch-Sprechern – Ihrer Meinung nach – bedeuten? Denken Sie auch an die Syllabifizierung in beiden Sprachen!

Nebenbemerkung: A-M-Analyse von Assimilation Beispiel: regressive Assimilation von Nasal-Plosiv-Folgen +nasal -nasal +nasal -nasal C C C C α place β place α place β place Beschreibt, erklärt aber nichts. Der rechte Teil bei progressiver Assimilation (die wie gesagt viel seltener auftritt) ist einfach spiegelbildlich; keinerlei Präferenz ist erklärbar… +nasal -nasal +nasal -nasal C C C C α place β place α place β place Trotzdem: selbst Ohala streitet den Nutzen des A-M-Modells in bestimmten Kontexten, v.a. zur Abstraktion und Beschreibung der Intonation, nicht ab.