Wie wird die koartikulatorische Nasalisierung im Signal wahrgenommen?

Slides:



Advertisements
Ähnliche Präsentationen
Wahrnehmung gesprochener Sprache
Advertisements

Verantwortung übernehmen heißt Antworten geben-
Lautunterscheidungstest für Vorschulkinder (4-7 Jahre) LUT
Gleich oder verschieden
Spektrogramm Das Spektrogramm stellt 3 Dimensionen dar:
Einführung in die Phonetik und Phonologie
Laden einer Signaldatei
Aligning pitch targets in speech synthesis: effects of syllable structure T. Rietveld and C. Gussenhoven Präsentiert von Anja Moos.
Phonetische Dauermessungen n c:\daten\instrpho\ip006rb.001 in Fenster A laden Die Lallphase dauert nicht lange c:\daten\instrpho\ip001rb.001 in Fenster.
Laden einer Signaldatei n Datei ip001rb.001 im Verzeichnis InstrPhon2007/DATEN laden Sitzung 5.
Adaptive Dispersion in der Wahrnehmung von Vokale
Perzeptuelle Kompensation von Koartikulation bei japanischen Wachteln A. J. Lotto, K. R. Kluender, L. L. Holt. Perceptual compensation for coarticulation.
Mikro und Makroprosodie
Das Lautwandel-Modell von John Ohala
Tonale Kategorien, Synchronisierung und Nachahmung
Die phonetischen Grundlagen des Lautwandels
Sprachproduktion- und Sprachperzeption
„Lautwandel und Grundfrequenz“
Die Prosodie Jonathan Harrington Felicitas Kleber.
Intonationsunterschiede zwischen dem Nord- und Süddeutschen
1 C.Fowler Analyse der Wahrnehmung von Koartikulierter Sprache LMU-München - IPSK WS 06/07 HS Modelle der Sprachproduktion und –perzeption Prof. J.M.
Wie entsteht und verbreitet sich Lautwandel in der Gemeinschaft? Jonathan Harrington Das Lautwandel-Modell von John Ohala.
Ist Intonation kategorial? Empirische Methoden und Evidenzen
Das ‚Perceptual Magnet Model‘ von Patricia Kuhl
Phonotaktik und Spracherwerb
Hauptseminar Soziophonetik Prof. Dr. Harrington Marina Meixner
Dissimilation und ihre Bedeutung für den diachronen Lautwandel
F. H&H Theorie und „adaptive dispersion“ in Lindbloms Modell
Etikettierungsebenen Jonathan Harrington. Das Ziel Etikettierungen verschiedener Ebenen aufzubauen, und miteinander zu verlinken.
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Was ist die artikulatorische Grundlage von Locus-Gleichungen? Hauptseminar: Modelle der Sprachproduktion & - perzeption Dozent: Prof. Dr. Jonathan Harrington.
Was sind die unterschiedlichen Vorhersagen der Quantal Theory (QT) und der Theory of Adaptive Dispersion (TAD) bezüglich der Verteilung der Vokale in den.
Lautwandel, Perzeption, Kompensierung für Koartikulation.
Was ist laut Stevens die Beziehung zwischen dem akustischen Signal, distinktiven Merkmalen und dem Lexikon?
An Ideomotor Approach to Imitation
Die Verschriftung der Sprache
Soziale Interaktion und Alltagsleben
Ein zentraler Flaschenhals
Rushmore - Einführung oder wie Sie Fehler vermeiden.
Kategoriale Wahrnehmung
§9 Der affine Raum – Teil 2: Geraden
Auditive Wahrnehmungsstörungen und Verarbeitungsstörungen – AVWS
Outlook_03 - Freigabe von Postfächern für Kollegen
HAAS + SOHN Investitionen im Bereich Internet. Einführung Übung 1 BEANTWORTEN SIE FOLGENDE FRAGEN 1.Warum spielt das Internet eine immer größere Rolle?
Zum verständlich machen, wozu die Trigger-Funktion geeignet ist,
Die 5 schwierigen Fragen
Die synchronen Grundlagen des Lautwandels Jonathan Harrington.
Gleichungen und Gleichungssysteme
Grunderfahrungen für den Schreib- und Leselernprozess
Der ideale Mitarbeiter
Religiöse Vielfalt – Bedrohung oder Chance?
Sprachproduktion und Sprachwahrnehmung
Elman-Netzwerke Wintersemester 2004/05 Seminar Kindlicher Spracherwerb C. Friedrich & R. Assadollahi vorgestellt von Christian Scharinger & Guido Heinecke.
So führen Sie ein Interview
Das Auge 2. Das Auge 2 Mit der PPP „Auge 2“ sollt ihr: Eure Kenntnisse zur Lage, zum Schutz, zur Form und zu den Leistungen unseres Auges festigen;
Spracherwerb.
Vom graphischen Differenzieren
Aufmerksamkeit, Funktion, Symptom Merkmale einer Legasthenie:
Auswertung der Fragebögen
11. Juli 2014 | Fachbereich 03 | Institut für Sportwissenschaft | Tobias Beringer M. A.| 1.
Beobachter – Lehrgang Burkhard Müller SRBO HV Sachsen1 Herzlich willkommen ! Viel Erfolg !
The link between leadership and followership: How affirming social identity translates vision into action. Projektarbeit Sozialpsychologie: Soziale Identität.
Lauterwerb siehe auch Wode, 1988, Kapitel 9.3.
Wenn ich dich bitte mir zuzuhören….
Oro-nasalerProzess Einführung in die Phonetik und Phonologie   Oro-nasaler Prozess.
► In einem Test werden 10 norwegische Verben gezeigt, wobei bei jedem Verb anstelle einer deutschen Übersetzung ein akustisches Signal oder ein Bild steht:
Peter Kaufmann Stud Sek I 06 FHNW Aarau, Posterdesign © Maria Spychiger Jasmin KlauserStud Sek I 06 FHNW Aarau,
Wie speziell sind Gesichter?
Stereotype 2012 Henrik Singmann
Stereotypes as Energy-Saving Devices
 Präsentation transkript:

Wie wird die koartikulatorische Nasalisierung im Signal wahrgenommen?

Inhalt Grundlagen Experiment 1 Experiment 2 Experiment 3 Zusammenfassung

Grundlagen Wie "entdecken" Hörer phonologische Eigenschaften von gesprochenen Äußerungen? 1.Phonologische Kategorien sind kognitiv 2.Phonologische Kategorien setzen sich aus Gesten zusammen

Worüber geben akustische Informationen Auskunft? Über abstrakte mentale Kategorien oder über phonologische Aktionen des Vokaltraktes? Welche Art der Aufmerksamkeit wird dem Sprachsignal entgegengebracht?

2 Arten von Aufmerksamkeit 1.Der Hörer versucht Hinweise für abstrakte phonologische Kategorien zu finden 2.Der Hörer versucht Informationen über die Gesten zu erhalten - Verschiedene Gesten haben verschiedene Effekte - der Hörer muss das Signal parsen, d.h. Informationen extrahieren

Parsen als Grundlage des Lautwandels Ohala (1981): ungenügendes Parsen und überhöhtes Parsen als Grundlage Theorie: Nasale Vokale haben sich entwickelt aus einem nachfolgenden Nasal. Dieser Nasal wird abgeschwächt und fällt weg. -> Hörer können die Nasalisierung nicht mehr einem Konsonanten zuordnen

Das Parsen koartikulatorischer Nasalität Studie von Fowler und Brown Die Sequenz VN beinhaltet drei Gesten: 1.Vokalische Geste 2.Geste des oralen Verschlusses 3.Absenken des Velums (zeitliche Überlappung mit den anderen Gesten)

Wird Nasalität dem Konsonanten und dem Vokal zugeschrieben oder nur dem Konsonanten? Wenn Hörer Gesten wahrnehmen, parsen sie die nasale Geste von der Geste des Vokals Grund: Die nasale Geste ist auf den Konsonanten abgestimmt, nicht auf den Vokal.

Experiment 1 Methode: Audiomaterial aus natürlicher Sprache, Gesplicte und cross-gesplicte Silben aus /bamə/, /banə/, /babə/ und /badə/ bamə1 x bamə2 -> Splicen bam1mə2 bam2mə1 -> Cross-Splicen bam1bə1 ban1də1 bam2bə2 ban2də2

Experiment 1 Ergebnisse:

Experiment 1 Auswertung: Reaktionszeiten für die crossgesplicten Silben waren langsamer als die für die gesplicten Hörer reagierten langsamer und ungenauer, wenn der Vokal falsche Informationen über den Charakter des Vokals gibt

Experiment 2 Warum waren die Reaktionszeiten bei crossgesplicten Silben so viel langsamer? 1. Vokale werden nasaliert wahrgenommen und verleiten Hörer dazu, einen Nasal vorherzusagen Oder 2. Vokale werden nicht als nasal wahrgenommen. Die Information +nasal wird für den folgenden Konsonanten geparst Oder 3. Beide Möglichkeiten, da das Parsen unvollständig geschieht

Experiment 2 -synthetisches AXB-Kontinuum mit A und B für /abə/ und X für /amə/ -Der erste Vokal hinsichtlich seiner Nasalität variiert

Vorhersage: X= /amə/ wird zugeordnet dem /abə/ mit der niedrigeren Nasalität Beim Parsen der Nasalität vom Vokal her sollte der Hörer den Vokal als weniger nasal wahrnehmen als er ist.

Ergebnisse Gibt es für X=/amə/ einen Punkt, wo die Tendenz zum weniger nasalierten A oder B sich umdreht?

Ergebnisse Hörer entschieden sich bei X=/amə/ bei über der Hälfte für den weniger nasalisierten Sample Wenn X= /abə/ weniger als halb so oft.

Diskussion Hörer bewerteten /a/ mit einem gegebenen Grad an Nasalität anders wenn es vor /mə/ steht, als wenn es vor /bə/ steht. Es gab keinen Übergang in der Präferenz vom schwächer nasalierten zum stärker nasalierten von A oder B

Experiment 3 Geschieht das Parsen vollständig? Untersucht wird natürliche Sprache in einem Vowel- matching-task /a/ oder / ʌ / Variation im Grad der Nasalisierung Gefolgt von oralem oder nasalem Konsonanten

3 verschiedene Trials 1. Die ersten Vokale der Doppelsilbe sind gleich a) sie sind nasaliert und gefolgt von einem Nasal b) sie sind oral und werden gefolgt von einem oralen Konsonanten 2.Einer der Vokale wird von einem Nasal gefolgt, der andere von einem oralen Konsonanten a) entweder beide sind nasaliert b) oder beide sind oral Der dritte Trial hat Vokale, die sich in der Nasalität unterscheiden, werden aber gefolgt von einen Konsonanten, der zur Nasalität passt wie bab1bə2 - bam1mə2.

Vorhersagen für Parser Trial 2 ist für Parser schwieriger Grund: Bsp.: bam1mə2 - bam1bə2 Bei /a/ in bam1mə2 wird die Nasalisierung nicht wahrgenommen Bei bam2bə2 würde die Nasalität allerdings gehört.

Vorhersagen für non-Parser Trials 1 und 2 sind gleich schwer Trial 3 ist schwerer Grund: gleiche Vokale unterscheiden sich in der Nasalierung

Ergebnisse für Trials mit Antwort gleich

Ergebnisse für Trials mit Antwort verschieden

Diskussion Die Grafiken drehen sich um Faktoren, die Vokale gleich klingen lassen verkürzen die Reaktionszeit Wenn Vokale gleich sind verlängert sich die Reaktionszeit Wenn Vokale verschieden sind verkürzt sie sich Reicht Parsen aus einen nasalierten Vokal im Kontext eines Nasals wie einen oralen Vokal klingen zu lassen? -> Nein! Parsen der akkustischen Konsequenzen einer nasalen Geste für einen Nasal im Bereich des Vokals nur teilweise statt.

Zusammenfassung 1. Antizipierte koartikulatorische Information könnte ein wahrgenommenes Segment kontextsensitiv klingen lassen -> der Vokal klingt nasalisiert 2. Hörer hören das onset für eine Geste in der das Velum abgesenkt wird und sehen das als Information für einen folgenden Nasal. -> Der Vokal klingt nicht nasalisiert 3. Das Parsen aus Grund 2 findet nur teilweise statt. Dadurch hört sich selbst nach dem Parsen der Vokal noch nasalisiert an.

Zusammenfassung Experimente 2 und 3 lieferten Hinweise für beide der ersten Möglichkeiten und erhärten den Verdacht, dass das Parsen nur teilweise geschieht.

Literatur Fowler, C. & Brown, J. (2000) Perceptual parsing of acoustic consequences of velum lowering from information for vowels. Perception & Psychophysics, 62, 21-32

Danke für die Aufmerksamkeit!