Agentbasierte Modellierung und Lautwandel

Slides:



Advertisements
Ähnliche Präsentationen
Die Satzprosodie Phrasengrenzen, Akzentuierung, Intonation.
Advertisements

Quellen-Filter Theorie der Sprachproduktion
Die phonetischen Merkmale von Vokalen
Formant-Analysen von Vokalen
Adaptive Dispersion in der Wahrnehmung von Vokale
Mikro und Makroprosodie
Wie wird die koartikulatorische Nasalisierung im Signal wahrgenommen?
Die Varianzanalyse Jonathan Harrington.
Das Lautwandel-Modell von John Ohala
Mixed Models Jonathan Harrington library(ez) library(lme4)
Anwendung von Emu-TCL Jonathan Harrington.
Die Phonetik und Sprachverarbeitung
Tonale Kategorien, Synchronisierung und Nachahmung
Berechnung von digitalen Signalen
Die phonetischen Grundlagen des Lautwandels
Berechnung von digitalen Signalen Jonathan Harrington.
Sprachproduktion- und Sprachperzeption
Wie entsteht und verbreitet sich Lautwandel in der Gemeinschaft? Jonathan Harrington Das Lautwandel-Modell von John Ohala.
Vokale und die Quantaltheorie
1. Satzbetonung, Töne, und Grundfrequenz
Prosodie und Intonation: ein Überblick
Die Prosodie Jonathan Harrington Felicitas Kleber.
Die Anatomie der Grundfrequenz Jonathan Harrington.
Welche Beweise gibt es, dass interne oder externe Faktoren die Dialektnivellierung der südostenglischen Vokale verursacht haben? Ludwig-Maximilians-Universität.
Wie entsteht und verbreitet sich Lautwandel in der Gemeinschaft? Jonathan Harrington Das Lautwandel-Modell von John Ohala.
Die Normalisierung und Wahrnehmung eines fremden Akzents Datum: Referentin: Carolin Funk Dozent: Prof. Dr. Jonathan Harrington Hauptseminar:
Hauptseminar Soziophonetik Prof. Dr. Harrington Marina Meixner
Dissimilation und ihre Bedeutung für den diachronen Lautwandel
F. H&H Theorie und „adaptive dispersion“ in Lindbloms Modell
Grundlagen der Analyse von Sprachdatenbanken
How gradual is sound change?
Artikulationsstelle, F2-Locus, Locusgleichungen Jonathan Harrington.
Die Diskrete-Cosinus-Transformation: Parametrisierung von Signalen in der Zeit und in der Frequenz Jonathan Harrington.
Aufbau, Abfrage, Analyse von Sprachdatenbanken ErstellungAnalyse Abfrage Digitale Zeitsignale akustisch, artikulatorisch Etikettieren Verknüpfung mit Symbolen.
Was ist die artikulatorische Grundlage von Locus-Gleichungen? Hauptseminar: Modelle der Sprachproduktion & - perzeption Dozent: Prof. Dr. Jonathan Harrington.
Was sind die unterschiedlichen Vorhersagen der Quantal Theory (QT) und der Theory of Adaptive Dispersion (TAD) bezüglich der Verteilung der Vokale in den.
Lautwandel, Perzeption, Kompensierung für Koartikulation.
Was ist laut Stevens die Beziehung zwischen dem akustischen Signal, distinktiven Merkmalen und dem Lexikon?
Kategoriale Wahrnehmung
Beziehung zwischen Phonetik und Phonologie
Varianzanalyse mit Messwiederholungen
Lautwandel in den Vokalen im Standardenglischen Jonathan Harrington.
Die synchronen Grundlagen des Lautwandels Jonathan Harrington.
EMA in Emu-R Jonathan Harrington
Sprachproduktion und Sprachwahrnehmung
Zusammenfassung von Hombert et al (1979) und Löfqvist (1989)
Das Lautwandel-Modell von John Ohala
Agenten und Multi-Agenten-System
Jonathan Harrington: "Die phonetischen Grundlagen des Lautwandels“
Hausaufgabe 1 Was ist Sozialpsychologie und wie unterscheidet sie sich von anderen, verwandten Disziplinen? Einführung
Jonathan Harrington Beziehung zwischen Phonetik und Phonologie Institut für Phonetik und Sprachverarbeitung, Universität München.
K3.1 Phonetik und Phonologie II 8. Sitzung Lautstatistik und Typologie.
Was ist Varietätenlinguistik? *eine Teildisziplin der Soziolinguistik *ein wesentlicher Bestandteil soziolinguistischer Forschung *befasst sich mit den.
Das Lautwandel-Modell von John Ohala
Die Varianzanalyse Jonathan Harrington library(ggplot2) library(ez)
Phonetik und Phonologie
THEORETISCHE PHONETIK DER DEUTSCHEN SPRACHE
Einige Kriterien für die Durchführung einer Varianzanalyse
Phonetik und Phonologie
Die Varianzanalyse II Jonathan Harrington library(ggplot2) library(ez)
Mikro und Makroprosodie
Die Varianzanalyse II Jonathan Harrington library(ggplot2)
Die Varianzanalyse Jonathan Harrington library(lattice) library(ez)
Phonetik und Phonologie wjb
Jana Harenkamp, Jana Egyptien, Lena Josko, Nathalie Hardt
Referat von Nina Rohmann, Anna-Maria Geyer und Yolanda Garrido-Perea
Die Varianzanalyse Jonathan Harrington library(ggplot2) library(dplyr)
Kovarianz, Korrelation, (lineare) Regression
Kovarianz, Korrelation, (lineare) Regression
Die Anatomie der Grundfrequenz
 Präsentation transkript:

Agentbasierte Modellierung und Lautwandel Jonathan Harrington

Hintergrund Computationelle Modelle des Lautwandels 2. Bias und Ursprung des Lautwandels 3. Koartikulation und Lautwandel 3, 4. Imitation und Dialektentwicklung 5.Exemplartheorie

Computationelle Modelle des Lautwandels Komplexe Systeme Lokale, zufällige Interaktionen führen zu komplexen Mustern in der Natur - ohne vorigen Entwurf oder Planung 1 Agent-basierte Modellierung2 Agenten (z.B.) Menschen interagieren miteinander; daraus enstehen gemeinsame Prinzipien des Gruppenverhaltens. Sprache als komplexes System3 Die Phonologie einer Gemeinschaft ist emergent3 (aus lokalen Interaktionen zwischen Sprecher und Hörer). 1. Schoenefeld, V. Introduction to Complex Systems: Patterns in Nature 2. Castellano, C., Fortunato, S. & Loreto, V (2009) Statistical physics of social dynamics. Review of Modern Physics, 81, 591–646. 3. Oudeyer, 2011, Perilus, 77-97

Computationelle Modelle des Lautwandels Computationelle Modelle bieten eine Methode, um den Ursprung des Lautwandels, seine Verbreitung, und menschliche Sprachverarbeitung zu verknüpfen Ursprung des Lautwandels Wie entwickelt sich phonetische Variabilität zu Lautwandel? (Ohala, Solé, Beddor…) Wie verbreitet sind Lautwandel in einer Gemeinschaft? (Soziolinguistik z.B. Labov) Verbreitung des Lautwandels

2. Bias und Ursprung des Lautwandels Hohe hintere Vokale entwickeln sich oft diachron nach vorne Hohe hintere Vokale fehlen öfters als hohe vordere Vokale z-score transformation: [0,0] is the mean position of [TDX, TDY] calculated across a speaker's utterances. TDX (Standard deviations) TDY (Standard deviations) 7 speakers, German vowels at midpoint1 tense lax 1. Harrington, Hoole, Kleber, Reubold, 2011, J. Phon.

3. Koartikulation Es gibt mehrere Kontexte, in denen /u/ aufgrund der Koartikulation nach vorne gezogen wird (tut; benutzen...; Englisch: few, you...). j ʉ F2 u Zeit

3. Die Koartikulation in Ohalas Modell Sprecher Hörer Hörer als Sprecher /jʉ, wʉ/ [jʉ, wʉ] /ju/ [jʉ] produziert Akustik rekonsruiert /jʉ/ Normiert für Koartikulation rekonstruiert /ju/ Der kontext bedingte /ʉ/ ist phonologisiert worden, wenn es in Kontexten vorkommt, die sich nicht mehr durch die Koartikulation erklären lassen.

3. Lautwandel-Verbreitung und Imitation Sprecher imitieren sich gegenseitig Neuere empirische Untersuchungen A-X-B. (A, B) = Produktion (A) und Wiederholung (B) von einem Sprecher, nachdem die Sprache von einem anderem Sprecher (X) wahrgenommen wurde. B-X sind oft phonetisch ähnlicher als A-X (1, 2) Langfristige Konvergenz zwischen Sprechern (3) Imitation betrifft auch nicht-sprachliche Bewegungen (4, 5) und andere linguistische Komponente (z.B. Syntax)6 1. Delvaux & Soquet (2007, Phonetica); 2. Nielsen (2011, J. Phon); 3. Pardo et al (2012, J. Phon). 4. Shockley et al (2009, Top Cog Sci, 1); 5. Sebanz et al (2006, Trends Cog. Sci.) 6. Garrod & Pickering, 2009, Top.Cog.Sci)

4. Lautwandel, Determinismus, Dialekt-Entwicklung Eventuell durch gegenseitige Imitation Trudgill (2008)1: Neuseeland-Englisch ist wegen Dialektmischung aufgrund von Imitation (vor allem bei Kindern) entstanden. Labov (2001)2: viele Lautwandel sind nicht sozial bedingt und enstehen mechanistisch durch Interaktionen. Harrington, Palethorpe, Watson (2000)3: Verschiebung der aristokratischen Sprache der Königin in die Richtung einer Mittelstandsaussprache ohne dessen Werte zu erreichen. 1. Trudgill (2008) Language in Society, 37, 241-254. 2. Labov (2001), Principles of linguistic change vol 2. 3. Harrington, Palethorpe, Watson (2000), Nature, 408, 927-928.

5. Exemplartheorie und Lautwandel Es gibt kognitiv eine statistische Beziehung zwichen Wörtern und deren im Gedächtnis gespeicherten Sprachsignale (Pierrehumbert, 2003a, b). Die Phonologie entsteht, weil sich diese statistische Verteilungen von Wörtern an gewissen Stellen miteinander überlappen (die phonologische Abstraktion entsteht aus den im Gedächtnis gespeicherten Sprachsignalen) Diese Verteilungen werden durch die wiederholte Wahrnehmung z.B. Kontakt mit einer neuen Aussprache geändert: dadurch entsteht ein gradueller Wandel in der Beziehung zwischen Phonologie und Sprachsignalen (und Phonologie ist auch sprecherspezifisch). Pierrehumbert (2003a). Language and Speech, 46.115–54.; siehe auch pierrehumbert03b.pdf in der Literatur-Webseite

5. Gradueller Lautwandel Königin Elizabeth II ju: (few) Queen EII: Christmas broadcasts u: (food)

Beziehung zwischen Ursprung und Verbreitung des Lautwandels Koartikulation verursacht einen Bias in die Richtung von einem Laut. Kleiner Einfluss Großer Einfluss Richtung der synchronen und ggf. diachronen Variation Hypothese1: der Laut verschiebt sich in die Richtung von dem Bias durch Interaktion mit anderen Sprechern, wenn deren Werte: nah an der Achse der Hauptvariation liegen als Verteilungsausreißer gelten könnten 1. Harrington & Schiel (in press), Language

Test der Hypothese Für das computationelle Modell wurden Daten aus Harrington, Kleber & Reubold (2008)1 verwendet ( ältere und jüngere Sprecher von Standardenglisch). Sie unterscheiden sich dadurch, dass [u] für jung frontierter ist. Harrington, Kleber, Reubold (2008) , JASA, 123, 2825-2835

Test der Hypothese Die Richtung der Variation ist auch asymmetrisch: alt streut mehr in die Richtung von jung als umgekehrt. Insofern müsste alt eher in die Richtung von jung gezogen werden, wenn sie miteinander interagieren.

Sprecher, Materialien Daten aus Harrington, Kleber, Reubold (2008) 27 Sprecher, 14 alt (Alter 69.2 Jahre), 13 jung (Alter 18.9 yrs) Sie produzierten 10 Wiederholungen 54 isolierter Wörter. Die agentbasierte Modelierung verwendete Minimalpaare: 11 Wörter × 10 Wiederholdungen = 110 Produktionen pro Sprecher: /f/ /s/ /k/ /h/ i feed seep keyed heed ju feud queued hewed u food soup cooed who'd

Akustische Parameter F2-Trajektorien in /i, ju, u/ (e.g. feed, feud, food) Lineare Zeitnormalisierung (jede Trajektorie hat die Dauer zwischen 0 und 1) DCT-Transformation: Jede F2-Trajektorie wurde als ein Punkt in einem 3D-Raum parametrisiert. Die DCT-Koeffiziente C0, C1, C2 (im Verhältnis zum F2-Mittelwert, -lineare Steigung, und Krümmung) waren die Achsendimensionen.

Diskrete Cosinus-Transformation F2-Trajektorie DCT-Koeffs. F2-Rekonstruierung Amplituden von Kosinuswellen C0 (Mittelwert) C1 (Steigung) C2 (Krümmung)

Alt streut mehr in die Richtung von jung als umgekehrt

Agent-basierte Modellierung: Sprecher und Agenten 22 Sprecher: 11 alt, 11 jung Ein Agent pro Sprecher. Jeder Agent besitzt diese Information: Wortklassen (11 soup, seep, food…) Phonologische Klassen: /i, ju, u/ Die DCT-Koeffiziente (Parametrisierung der Signale) Typischerweise 110 Objekte Pro Agent Ein Objekt enthält 5 Informationsteile: z.B. {seep, /i/, 3 DCT Koeffiziente.}

Interaktion Zwei Agenten wurden auf eine zufällige Weise ausgewählt. Einer ist der Agentsprecher, der andere der Agenthörer Agentsprecher (AS) Eine Wortklasse auf eine zufällige Weise wurde gewählt Konstruktion einer Gaussglocke im 3D-Raum der Wortklasse (basiert auf ca. 10 Wiederholungen des Wortes) Eine Stichprobe wurde durch die Gausglocke generiert (= der Agent spricht). Das Objekt (Wortklasse, Phonemklasse, generierte 3-DCT-Koeffs) wurde dem Agenthörer übertragen...

Der Agenthörer 1. Aufnahme von einem Objekt ins Gedächtnis Um z.B. einen wahrgenommen 'heed' aufzunehmen, musste das Signal näher an die Verteilung von /i/ als von /ju, u/ sein – um zu vermeiden, dass für den Hörer unwahrscheinliche Signale aufgenommen wurden. 2. Entfernung aus dem Gedächtnis Sollte z.B. heed von Hörer aufgenommen werden, wurde der unwahrscheinlichste heed-Objekt aus dem AH-Gedächtnis entfernt. Dadurch blieb nach einer Interaktion die Objektanzahl konstant

Modelle und Vorhersagen Drei ABMs wurden durchgeführt mit (a) 11 älteren Sprechern (b) 11 jüngeren Sprechern (c) Allen 22 Sprechern Vorhersagen Kein Wandel in /ju, u/ in (a, b) da die Gruppen homogen sind (haben entweder vordere oder hintere /u/s). Der Wandel in (c) ist asymmetrisch: /ju, u/ von alt wird in die Richtung von jung gezogen Kein Wandel in /i/ in (a, b, c) (da in /i/ wenig Sprechervariation vorhanden ist).

Younger speaker-agents Ergebnisse 1: Kaum Änderungen innerhalb der Altersgruppen Original ± 2 s.d. Mean after 30000 iterations Younger speaker-agents /i/ /ju/ Normalised F2 /u/ Older speaker-agents Normalised time

Ergebnisse 2: alt -> jung

Simulation ftp://ftp.bas.uni-muenchen.de/pub/BAS/ABM/Animations/StartHere.html

Zusammenfassung von Harrington & Schiel (in press) Koartikulation und Vorgänge der Spontansprache erzeugen einen Bias in der Verteilung von Lauten Dieser synchrone Bias kann durch Kontakt zu Sprechern mit phonetischen Werten positioniert entlang der Achse der phonetischen Variation vergrößert werden. Ob phonetische Variation tatsächlich zu Lautwandel wird, hängt ab von der Orientierung der Sprecher (oder Sprechergruppen) zueinander in einem phonetischen Raum.

/ɪ, ə/ Kontrast im Neuseelandenglischen Für Trudgill (2004) ist es schwer zu erklären, weshalb /ɪ, ə/ in unbetonten Silben z.B.. dancers/dances, Rosa’s/roses usw. neutralisiert wurde. Der Rätsel ist, weil die Mehrheit der Einsiedler im 19 Jahrhundert nach Neuseeland (aus England z.B.) einen /ɪ, ə/ Kontrast hatten. Jedoch kann der Verlust dieses Kontrastes durch unser Modell geklärt werden da synchron /ɪ/ -> /ə/ wesentlich häufiger ist als /ə/ -> /ɪ/