Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Spracherwerb.

Ähnliche Präsentationen


Präsentation zum Thema: "Spracherwerb."—  Präsentation transkript:

1 Spracherwerb

2 Definition Spracherwerb
Spracherwerb bedeutet das „Erlernen der Regeln der jeweiligen Muttersprache1, [...] [und] zu lernen, wie mit Sprache eigene Gedanken und Gefühle ausgedruckt, wie Handlungen vollzogen und die von anderen verstanden werden können. Hierbei sind auch nonverbale Signale wie Mimik und Gestik bedeutsam.“ aus Klann-Delius, G. (1999). Spracherwerb. Stuttgart: Metzler. S.22. In der Linguistik spricht man nicht von „Muttersprache“ sondern von „Erstsprache“ (von der man auch mehrere haben kann). Im Unterschied zum Zweitspracherwerb lern man die Erstsprache ohne Bewusstmachung der zugrundeliegenden Regeln.

3 Aspekte des Spracherwerbs
Frühe Sprachwahrnehmung Kategoriale Lautwahrnehmung Segmentation Wortklassifikation Erwerb phonetischer und phonologischer Fähigkeiten Vokalisationsentwicklung Entwicklung des phonologischen Systems Frühe phonologische Fähigkeiten und Phoneminventar Phonologische Prozesse Erwerb von Konsonantenverbindungen Prosodieerwerb (Betonung) nach: Christina Kauschke (2012), Kindlicher Spracherwerb im Deutschen (s. Wiki)

4 Aspekte des Spracherwerbs
Erwerb lexikalischer und semantischer Fähigkeiten Wortverständnis Wortproduktion Lexikalischer Zuwachs Wachstumsmuster Sprachwahrnehmung Bedeutungsentwicklung Eigenschaften früher Wörter Inhalte und Strukturierung des kindlichen Lexikons Erwerb der Wortarten Erklärungsansätze zum Lexikonerwerb nach: Christina Kauschke (2012), Kindlicher Spracherwerb im Deutschen (s. Wiki)

5 Aspekte des Spracherwerbs
Erwerb morphologischer Fähigkeiten Erwerb der Wortbildung Erwerb des Pluralsystems Erwerb des Kasussystems Erwerb der Verbflexion Erwerb der Personalflexion Tempuserwerb nach: Christina Kauschke (2012), Kindlicher Spracherwerb im Deutschen (s. Wiki)

6 Aspekte des Spracherwerbs
Erwerb syntaktischer Fähigkeiten Anfänge des Syntaxerwerbs Erwerb einfacher Satzstrukturen Erwerb der Verbzweitstellung im Erwerb von Fragestrukturen Erwerb komplexer Satzstrukturen Erwerb von Nebensätzen Erwerb von Passivstrukturen Erwerb von Objektvoranstellungen Erklärungsansätze zum Syntaxerwerb nach: Christina Kauschke (2012), Kindlicher Spracherwerb im Deutschen (s. Wiki)

7 Aspekte des Spracherwerbs
Erwerb pragmatischer Fähigkeiten Intentionalität und Intersubjektivität Frühes Kommunikationsrepertoire Dialogkompetenz und Konversationsfähigkeiten Kindgerichtete Sprache Erwerb von Dialogfähigkeiten Erwerb elementarer Sprechakte Erwerb narrativer Fähigkeiten nach: Christina Kauschke (2012), Kindlicher Spracherwerb im Deutschen (s. Wiki)

8 Interessante Fakten zur kindlichen Sprachentwicklung
nach Nicolas Ruh (ganz ohne Quellenangaben)

9 Sensitive Phasen Nur wer in einer sprachlichen Umgebung aufwächst, lernt sprechen – und zwar die ihn oder sie umgebende(n) Sprache(n) Wenn man bis zum ca. 12ten Lebensjahr keine Erstsprache erworben hat, dann lernt man keine Sprache mehr Evidenz: Wolfskinder, Genie

10 Pidgin Gruppen von Kindern, die in einer nichtsprachlichen Umgebung aufwachsen, entwickeln spontan ihre eigene, syntaktisch vollwertige Sprache Evidenz: Pidgin -> Kreolsprachen, manche Zeichensprachen

11 Interaktion ist entscheidend
Kinder lernen nicht/schwer sprechen, wenn sie zwar eine sprachliche Umwelt, aber keine direkten Interaktionen mit ihr haben Evidenz: Nur/sehr viel Fernsehen verunmöglicht oder verzögert den Spracherwerb.

12 Motherese hilft – oder auch nicht
Noch immer sehr umstritten ist die Frage, ob ein vereinfachter sprachlicher Input beim Spracherwerb förderlich ist Evidenz: Es ist unklar, ob es der kindlichen Sprachentwicklung hilft oder schadet, wenn Erwachsene Baby-Sprache benutzen – klare Effekte zeigen sich dagegen für die Menge der sprachlichen Interaktion mit Kindern

13 Pränatale Fähigkeiten
schon vor der Geburt oder kurz danach (< 4 M.) können Babys Sprache von anderen Geräuschen unterscheiden können Babys ihre Muttersprache von Fremdsprachen unterscheiden (hauptsächlich aufgrund der Intonation) Evidenz: Herzrate, Trittrate

14 Frühsprachliche Fähigkeiten
schon kurz nach der Geburt (< 1 J.) können Babys in ihrer Muttersprache vorkommende Phoneme unterscheiden (aber andere nicht) können Babys Wortgrenzen in ihrer Muttersprache erkennen Evidenz: Japanische Babys verlernen, zwischen l und r zu unterscheiden Methoden: EKP, Blickpräferenz, NIRS, fMRI

15 Wesentliche Schritte der frühen Sprachwahrnehmung (nach Kauschke, 2012)
Alter Fähigkeiten der frühen Sprachwahrnehmung 1–4 Monate −  Sensitivität für Sprache und Stimmen (beginnt vorgeburtlich) −  Fähigkeit zur Unterscheidung verschiedener Sprachen −  Erkennung rhythmischer und prosodischer Merkmale der Muttersprache −  Beginn der kategorialen Lautwahrnehmung, Wahrnehmung auch nicht-muttersprachlicher Kontraste −  Erkennen des eigenen Namens (4 Monate) 6 Monate −  Präferenz für das dominante Betonungsmuster der Muttersprache −  Erkennen von Phrasengrenzen 8 Monate −  Segmentierung von Wörtern mit trochäischem Betonungsmuster −  Wiedererkennung hochfrequenter Inhalts- und Funktionswörter −  Erkennung von Satzgrenzen anhand der Pausendauer 10 Monate −  Nutzung phonotaktischer Regularitäten zur Segmentation −  Segmentierung von Wörtern mit jambischem Betonungsmuster 12 Monate − Kategoriale Lautwahrnehmung beschränkt sich auf muttersprachliche Kontraste 16 Monate − Nutzung distributioneller Informationen (Kookkurrenz) zur Klassifizierung von Wortarten, vor allem von Nomen

16 Überblick über Methoden in der Spracherwerbsforschung
Befragungsmethoden Beobachtungsmethoden Spontansprache, Sprachtagebuch (inzwischen Video) Elizitierte Sprachproduktion semi-strukturierte Testverfahren, z.B. Ausagieren Experimentelle Methoden Benennen, Wort-Bild-Zuordnung, Reaktionszeiten, ... Verwendung von Nicht- oder Pseudowörter Physiologische Reaktionen (Herzrate, Trittrate, Nuckelfrequenz, Blickpräferenz,...) Bildgebende Verfahren (EKP, fMRT, NIRS) Störungen des Spracherwerbs

17 Vokabelspurt Eine kleine Weile nach dem Auftauchen der ersten Worte (ca. 1 J.) in kindlichen Äusserungen gibt es eine Phase (ca. 2 J.), in der sich das aktive Vokabular sehr schnell von unter 50 Worten auf ca bis 300 Worte erweitert – danach (ca. 3 J.) sinkt die Erwerbsrate wieder Evidenz: Nicht ganz klar, kommt auch sehr darauf an, wie man die Erwerbsrate definiert und misst

18 Wortschatzwachstum in der Spontansprache (aus Kauschke 2000)

19 Sprachverständnis vor Produktion
Viele sprachliche Fähigkeiten zeigen sich in der Sprachproduktion erst Monate nachdem sie im passiven Sprachgebrauch nachweisbar sind Evidenz: Kinder in der Zwei-Wort-Phase zeigen schon vertieftes grammatikalisches Verständnis (z.B. durch Ausagieren), können verschiedene Wortarten unterscheiden (aufgrund der Kookkurrenz!)

20 Wortartenentwicklung (Kauschke 2012)

21 Ausdifferenzierung von Bedeutung
Frühe Worte werden meist auf ein zu breites (oder zu enges) Bedeutungsfeld angewandt, die Bedeutung verengt sich mit zunehmender Erfahrung und grösser werdendem Vokabular Evidenz: Die meisten Kinder benutzen „Wauwau“ zu Beginn für alles, was sich bewegt (Überdehnung), dann für alle Lebewesen, dann für Tiere mit Fell und erst zum Schluss nur für Hunde Manchmal werden Begriffe auch initial zu eng (Unterdehnung) verstanden, z.B. „Ball“ nur für den eigenen Ball

22 Stadien des Syntax-Erwerbs
0;10-1;6 Holophrasen II 1;6-2;0 Zwei-Wort-Äußerungen Wortketten Keine Flexionen Wortstellung fest oder frei III 2;0-2;6 Ausbau der einfachen Syntax -Ausrichtung auf Wortstellung der Zielsprache -Aufbau einfacher Sätze -erste hierarchische Strukturierungen je nach Zielsprache -Beginn der Flexionen IV 2;6-4;0 Erste Transformationen und Nebensätze -einfache Sätze gemeistert -Flexionen noch fehlerhaft -Relativsätze, Konjunktionalsätze, Inversion V 4;0-12;0 Ausbau der komplexen Syntax Stadieneinteilung nach (Wode, 1988; vgl. Clahsen, 1986)

23 Kreativer Umgang mit Sprache
Kinder ahmen Äusserungen selten 1:1 nach, vielmehr experimentieren sie von klein auf mit möglichen Regeln, was sich oft in systematischen Fehler äussert. Evidenz: Worte werden nachweislich in nie zuvor gehörten Konstellationen geäussert, es gibt systematische Vereinfachungen, der Umgang mit neuen oder erfundenen Worten folgt bestimmten – wenn auch nicht immer korrekten - Regeln

24 U-förmige Entwicklung
Bei verschiedenen sprachlichen Fähigkeiten (z.B. Verbflektion) folgt auf einen initial korrekten Gebrauch (weniger Wörter) eine Phase der Übergeneralisierung, bevor dann das gesamte System beherrscht wird. Evidenz: Verbflektion, Pluralbildung, ...

25 U-shaped development

26 U-shaped development

27 Erklärungsansätze Spracherwerb
Behaviouristischer Ansatz Nativistischer Ansatz Kognitivistischer Ansatz Konstruktivistischer Ansatz Interaktionistischer Ansatz

28 Erklärungsansätze Spracherwerb

29 Nativismus Pinker vs. Szagun
Verfassen sie eine knappe (ca. ½ Seite) Zusammenfassung von Pinkers Artikel Wichtigste Gedankengänge in eigenen Worte objektiv widergeben Verfassen sie auf der Basis der beiden Texte einen Lexikonartikel (für ein Schülerlexikon) zum Begriff „Nativismus“ (bzgl. Spracherwerb)

30 Zusammenfassung

31 begriffen.ch Probe Grundwissen (1. März 2016, 45‘)
Definition  Begriff (etwa 10) Begriff  Definition (etwa 10) Beispiel  Begriff (etwa 10) Begriff  Beispiel (etwa 10) Hausaufgabe auf um 10:00 (je nach Gruppe, Ergebnisse in Google Docs eintragen, s. Links auf Wiki) Je 1-3 Beispiele pro Aufgabentyp (spezifische Begriffe) 3 Textausschnitte, die man gut einer Epoche zuordnen kann (mit Lösung) 3 Textausschnitte, bei denen man gut die Erzählperspektive bestimmen kann (mit Lösung) 3 Ausschnitte aus Gedichten, die sich zur Bestimmung des Metrums eignen (mit Lösung)

32 Lexikonartikel

33 Erklärungsansätze Spracherwerb

34 nature vs. nurture Umwelt (sprachliche) input (Sinne) output (Handeln)
Das Gehirn macht aus sensorischem Input einen motorischen Output. Das Gehirn eines Menschen funktionieren ähnlich, wie das anderer Menschen, aber (teilweise) anders, als das von Tieren (z.B. Sprache). Die Frage ist also, wie viel der spezifischen Funktionsweise des menschlichen Gehirns (z.B. sprechen lernen) beruht auf seiner speziellen DNA, und wie viel auf der Umwelt, in der er aufwächst. Interessant und umstritten ist diese Frage nur für komplexe Fähigkeiten und Veranlagungen, z.B. Sprache, Intelligenz, Moral, Charakter,...

35 Behaviourismus Umwelt (sprachliche) input (Sinne) Black Box
output (Handeln) Angeboren sind bestimmte Prinzipien des Reiz-Reaktions-Lernen Diese Prinzipien kann man genau untersuchen, indem man den Input kontrolliert und den Output misst (Experimente, zumeist mit Tieren) Alle Handlungen sind also (angeborene oder erlernte) Reaktionen auf die Reize in der Umwelt. Spekulationen über die genauen Vorgänge innerhalb des Gehirns sind müssig, da wir sie nicht objektiv messen können (vor 100 Jahren)

36 Nativismus Umwelt (sprachliche) input (Sinne) output (Handeln)
Die menschliche Sprachfähigkeit ist angeboren in Form von allgemeinen Regeln (Universalgrammatik) Spracherwerb bedeutet, dass aus dem universellen Set von Regeln die für die Muttersprache zutreffenden herausgefiltert werden Die wichtigste Begründung für diese Sicht: sprachliche Regeln sind zu komplex, als dass man sie aus Beispielen ableiten könnte - und explizite Informationen über die Regeln oder korrektives Feedback bekommen Kinder nicht oder wenig  Was nicht lernbar ist, angeboren sein

37 Noam Chomsky Sprache ist zu kompliziert, als dass man sie aus dem Input lernen könnte, insbesondere ohne negatives Feedback. Also muss es eine angeborene Universalgrammatik (UG) geben. Chomskys Ziel: Ein solche UG erfinden/beschrei-ben, also zunächst für einzelne Sprachen die Sets von Regeln finden, mit denen sich alle möglichen Äusserungen dieser Sprache produzieren lassen und dann diese einzelnen Generativen Grammatiken in einer UG zu vereinen.

38 Generative Grammatik (Englisch)
(angeborene) Transformationsregeln Der Pfeil deutet an, dass man die linke Seite durch die rechte ersetzen kann S  NP VP VP  Verb (NP) NP  Det Noun Theoretische Linguisten suchen noch immer nach einer möglichen Universalgrammatik, die alle Sprachen der Erde umfasst. Die Herangehensweise entspricht grob dem obigen Beispiel – nur seeeeehr viel komplizierter

39 Ein Beispiel: Word Order (Subject Verb Object)
Equivalence in English Proportion of languages Example languages SOV "I you love." 45% Hindi, Japanese, Latin SVO "I love you." 42% English, Mandarin, Russian VSO "Love I you." 9% Hebrew, Irish, Zapotec VOS "Love you I." 3% Baure, Fijian, Malagasy OVS "You love I." 1% Apalai, Hixkaryana, Tamil OSV "You I love." 0% Jamamadi, Warao, Xavante Deutsch: SOV (Nebensätze) & SVO (Hauptsätze) & VSO (Fragen)

40 Konstruktivismus (Konnektionismus)
input (Sinne) (sprachliche) Umwelt output (Handeln) Angeboren ist die enorme Lernfähigkeit des Gehirns, das sich beständig selbstorganisiert, um mit dem gegebenen Input optimal umgehen zu können Dass Menschen so ähnliche Erwerbsprozesse zeigen, liegt daran, dass sie ähnlich lernen und vergleichbaren Input bekommen Die Vorstellung, dass „sprachlichen Regeln“ im Gehirn in Form von (expliziten) Transformationsgrammatiken vorliegen, ist unbegründet und falsch Konnektionismus: Man kann gehirnähnliche Modelle entwickeln, die selbst aus angeblich „armem“ Input komplexe Regelhaftigkeiten erlernen

41 Jeff Elman Angeboren ist eine überragende Lernfähigkeit (inkl. Generalisation). ALLES inhaltliche (Vokabular, Rollen und Regelhaftigkeiten) wird aus dem Input gelernt Elmans Ziel: Zeigen, dass es biologisch plausible Lernmechanismen (z.B. Neuronale Netze) gibt, die das können

42 Lernende Systeme funktionale Modelle bzw. Simulationen
Nativisten Konnektionisten meist Pen&Paper–Modelle modularer Aufbau explizite, sprachspezifische Regeln (wie in Computerprogramm) aus der Interaktion mit Input wird abgeleitet, welche der Regeln gelten wie das Gehirn das umsetzt, interessiert nicht (Kompetenz vs. Performanz) funktionale Modelle bzw. Simulationen Parallelverarbeitung eingebaut sind allgemeine Lernregeln aus der Interaktion mit Input ergibt sich (implizit) regelhaftes Verhalten Die Modelle und Lernregeln sind der Biologie nachempfunden

43 Neuronale Netze Lernen (Gewichte anpassen)
Ausgabeschicht (~ Handlung) Verarbeitung (Input  Output) Lernen (Gewichte anpassen) Zwischenschicht(en) (~Gehirn) Eingabeschicht (~Sinne)

44 Beispiel Wortsegmentierung
Woher weiss man, dass ein Wort zu Ende ist? Und noch wichtiger: kann man das lernen? Input: kontinuierlicher Strom von Lauten (exakt: Phoneme, aber wir bleiben mal bei Buchstaben) Das Gehirn (hier: das Netzwerkmodell) versucht ständig vorherzusagen, welcher Buchstabe als nächstes kommt. Das tolle daran: wenige Millisekunden später kann es die Korrektheit seiner Vorhersage gleich überprüfen

45 Ein Netzwerkmodell Dieses SRN lernt, indem es
ein Märchenbuch liest, Buchstabe für Buchstabe versucht, jeweils den nächsten Buchstaben vorherzusagen Der Fehler in der Vorhersage wird gemessen (mit bekannten und unbekannten Sätzen und Wörtern) A B C D E F 1:1 copy A B C D E F

46 Ergebnis: Vorhersagefehler nach Training

47 Beispiel Wortsegmentierung
Wie erkennen Kinder Wortgrenzen im Sprachsignal? Nativismus: Keine Konkrete Antwort, wird vorausgesetzt Konnektionismus: Ein Teil des Gehirns ist ständig damit beschäftigt vorherzusagen, was als nächstes passiert – in Bezug auf Sprache also, welches Phonem als nächstes kommen kann. Innerhalb von Worten gibt es nur wenige Möglichkeiten, an Wortgrenzen sehr viele  Wortgrenzen sind die Stellen im Sprachsignal, an denen man schlecht vorhersagen kann, welches Phonem als nächstes kommt

48 Mehr Chomsky vs. Elman Kann Syntax (welches Wort im Satz wo hin gehört) aus dem Input gelernt werden? (Wie?) Haben wir Syntax-Regeln im Kopf? (in welcher Form?) Gibt es einen Zusammenhang zwischen Syntax und Semantik? Warum sind bestimmte Nebensatzkonstruktionen besser zu verstehen als andere? Warum verstehen manche kompliziertere Sätze? Warum kann man Syntax nach dem ~12ten Lebensjahr nicht mehr lernen?

49 Wie viele grammatisch korrekte Sätze gibt es in einer bestimmten Sprache?

50 Rekursion (0) Anna rennt. (1) Anna, die Fred mag, rennt. (2) Anna, die Fred, der Supermann sieht, mag, rennt. (0) Der Hund rennt. (1) Der schwarze Hund rennt. (2) Der schwarze böse Hund rennt. (3) Der schwarze böse grosse Hund rennt. (4) ... (0) Anna rennt. (1) Anna rennt und Fred isst. (2) Anna rennt und Fred isst aber Supermann lebt.

51 Regeln (für Englisch) S  NP VP VP  Verb (NP) NP  Det Noun

52 Regeln mit Rekursion S  NP VP VP  Verb (NP) NP  Det Noun
NP  NP who VP Aber: versteht man diesen Satz? The dog that the cat that the mouse (…) hears sees runs. The dog that the cat that the mouse (…) hears sees runs. Chomsky kümmert das nicht Performance vs. Kompetence Elman sieht darin ein zu erklärendes Phänomen

53 Elmans Netz: Grundidee
Das Märchen-Netz hatte aus dem Buchstaben-Strom die Regelhaftigkeiten der englischen Phonetik gelernt also welche Buchstaben nach welchen Buchstabenfolge am wahrscheinlichsten sind Das hat es gelernt, indem es immer versucht hat, aufgrund der bisherigen Buchstaben den jeweils nächsten vorherzusagen praktisch, einen kleinen Moment später kann es Vorhersage und Wirklichkeit vergleichen Und jetzt dasselbe mit Worten statt Buchstaben jetzt sollte das Netz die Regelhaftigkeiten der Grammatik (Syntax) lernen

54 Worte vorhersagen 31 Worte, jedes bekommt einen Input-Knoten
Aus den Worten werden korrekte Sätze gebildet (einfache 2- oder 3-Wort-Sätze) Das SRN ( ) wird trainiert

55 Ein Teil des kontinuierlichen Inputs

56 Cluster-Analyse des hidden layer
Das Netz hat gelernt, grammatische Kategorien zu unterscheiden Semantik? (Look at the nouns)

57 Zwischenergebnis SRNs können Struktur aus einem kontinuierlichen Input-Strom extrahieren Die entstehende Struktur spiegelt (feine) syntaktische Unterscheidungen, aber auch teilweise semantische Information (Bedeutung) Die üblichen Vorteile von Neuronalen Netzen gelten auch für dieses Modell, z.B. „Biologische“ Informationsverarbeitung Generalisation (auf nicht trainierte Sätze) Robustheit bei Schädigung Die häufigsten Konstruktionen werden zuerst gelernt

58 Aber weiter zu interessanteren Gefielden
Funktioniert das auch mit komplizierteren Sätzen? Es werden tausende weiter korrekte Sätze konstruiert(inkl. mehrfachen Nebensätzen, zentral, rechts und/oder links eingebettet), z.B: cats chase dogs. mary feeds john. boys who chase dogs see girls. girl who boys who feed cats walk. dogs see boys who cats who mary feeds chase. Achtung: singular/plural agreement zwischen Subjekt and Verb!!

59 The importance of starting small
Construct more complex sentences (with multiple embedding – center, right + left) cats chase dogs. mary feeds john. boys who chase dogs see girls. girl who boys who feed cats walk. dogs see boys who cats who mary feeds chase. (note the singular/plural agreement between subject and verb!!)

60 Building the training set

61 Wieso? Armer Jeff Es klappt nicht!!!
Die Übereinstimmung (singular/plural) in längeren Sätzen wird nicht erfolgreich gelernt Z.B. sagt das Netz dies voraus: dogs who see cats who mary feeds lives. Wieso?

62 Ein Problem mit dem Arbeitsgedächtnis
long distance dependencies sind schwierig (für Netze und Menschen) Weit zurück liegende Inputs haben nur noch wenig Einfluss im hidden layer Die Schritte zwischen den beiden zusammengehörigen Elementen (Subjekt & Verb) interferieren … lives. Um es zu schaffen müsste das Netz die Zwischenschritte so gut gelernt haben, dass es auf den verbleibenden Einfluss des weit zurück liegenden Subjekts noch reagieren kann (dogs who see cats who mary) feeds…

63 Die Lösung: starting small
Zwei Versionen Komplexität des Input schrittweise erhöhen, indem man immer mehr komplizierte Sätze dazu nimmt Die Gedächtnisspanne des SRN zu Beginn begrenzen, z.B. indem man das kontext layer alle 3, 5, 7, nie, Worte auf zufällige Werte setzt Beides hat denselben Effekt: es reduziert die Komplexität der Aufgabe zu Beginn, so dass das Netz die groben Strukturen lernen kann (s. erste Version). Wenn erst später die komplexeren Sätze dazu kommen kann sich das Netz auf diese “konzentrieren”

64 Jetzt klappt es!!! Output of the trained SRN
(= probability distribution!) S = end of sentence W = who 1 = singular 2 = plural Direct object: N = not possible R = required O = optional

65 Hidden layer Analyse (PCA für mehrere Schritte)
start (3x) start

66 Ergebnis Es entstehen hierarchische Repräsentationen der Struktur von Syntax Das SRN hat ähnliche Probleme wie Menschen, wenn es um long distance dependencies geht Das SRN lernt besser mit “starting small”, mehr ist nicht immer besser Erst ein anfänglich “dummes” Gehirn ermöglicht das Erlernen sehr komplexer Aufgaben  vielleicht erklärt das, warum Menschen von allen Spezies am “unfertigsten” geboren werden und die längste Kindheit haben

67 Chomsky vs. Elman Kann Syntax (welches Wort im Satz wo hin gehört) aus dem Input gelernt werden? (Wie?) Haben wir Syntax-Regeln im Kopf? (in welcher Form?) Gibt es einen Zusammenhang zwischen Syntax und Semantik? Warum sind bestimmte Nebensatzkonstruktionen besser zu verstehen als andere? Warum verstehen manche kompliziertere Sätze? Warum kann man Syntax nach dem ~12ten Lebensjahr nicht mehr lernen?

68 Elmans Antworten: Selbst so etwas kompliziertes wie Syntax kann aus dem Input gelernt werden (z.B. mit Neuronalen Netzen) Im Kopf haben wir keine symbolischen Regeln, höchstens Regelhaftigkeiten (als Gewichte in NNs) Syntax und Semantik sind nicht komplett zu trennen Aufgrund der speziellen Art von Arbeitsgedächtnis Weil sie geübter sind Weil der in die Entwicklung eingebaute starting small Mechanismus nicht mehr greift

69 Erklärungsansätze Spracherwerb
Ansatz Vertreter Beschreibung Probleme Behavioristisch Skinner Konditionierung und Lernen durch Assoziation lernertypische Fehler Nativistisch Chomsky Pinker Clahsen Sprachliche Strukturen bis auf noch zu fixierende Parameter angeboren itembasiertes Lernen kaum funktionalen Modelle Kompetenz vs. Performanz Kognitivistisch Piaget Sinclair-de Zwart Kognitive Entwicklung bestimmt Spracherwerb Erwerbsreihenfolge oft von Eigenschaft der Sprache abhängig, kaum Modelle Interaktionistisch Brunner Snow Bates Tomasello Betonung der sozialen Interaktion als Lernrahmen Itembasiertes Lernen Betonung der Fähigkeit zur statistischen Inputanalyse zu wenig genau? kaum funktionale Modelle Lernbarkeit? kein negativer Input (?) Konstruktivistisch / Konnektionistisch Elman Plunkett Szagun Das Gehirn als Lernapparat, der aus der Erfahrung Regelhaftigkeiten ableitet technisches Verständnis, Modelle oft spezifisch für bestimmte Fähigkeiten

70 Meine Haltung zu Spracherwerb
Gehirn ≠ Computer, die Vorstellung von expliziten Regeln im Gehirn ist irreführend und falsch Es macht wenig Sinn, sich über angeboren vs. gelernt zu streiten. Wichtig wäre: was genau ist angeboren (z.B. Lernmechanismen...)? wie genau lernt das Gehirn aus dem Input?  Verständnis der Interaktion zwischen Hirn & Umwelt Funktionale Modelle sind essenziell Die Zeit der Kästchen-und-Pfeile-Modelle ist vorbei, nicht nur in der Linguistik

71 Erklärungsansätze Spracherwerb

72


Herunterladen ppt "Spracherwerb."

Ähnliche Präsentationen


Google-Anzeigen