Tutorium 11.06.07.

Slides:



Advertisements
Ähnliche Präsentationen
Korrektur Tutoratsaufgaben V
Advertisements

Schnelle Matrizenoperationen von Christian Büttner
11. Matrizen. 11. Matrizen Eine mn-Matrix ist ein Raster aus mn Koeffizienten, die in m Zeilen und n Spalten angeordnet sind. = (aij)1  i  m, 1.
Induktive Statistik: Regressionsanalyse
13 2. Eine Anwendung der Spline-Glättung in der Versicherungsmathematik: Geographische Prämienschätzung durch räumliche Whittaker-Glättung 2.1 Vorbemerkungen.
Theorie psychometrischer Tests, III
Regression und Korrelation
Lösung von linearen Gleichungssystemen - Grundlagen
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-24.
Forschungsstatistik II
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-26.
Forschungsstatistik II Prof. Dr. G. Meinhardt SS 2006 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz KLW-18.
Hypothesen testen: Grundidee
2. Univariate Regressionsanalyse 2.1 Das statische Regressionsmodell
Eigenwerttechniken Matrixalgebra 7.2 Hauptkomponentenanalyse
Effektgrößen, Kontraste & Post-hoc-Tests
Nachholung der Vorlesung vom Freitag
Klausur am :00 bis 13:00 Hörsaal Loefflerstraße und Hörsaal Makarenkostraße.
Folie 1 § 30 Erste Anwendungen (30.2) Rangberechnung: Zur Rangberechnung wird man häufig die elementaren Umformungen verwenden. (30.1) Cramersche Regel:
Folie 1 § 29 Determinanten: Eigenschaften und Berechnung (29.1) Definition: Eine Determinantenfunktion auf K nxn ist eine Abbildung (im Falle char(K) ungleich.
§ 29 Determinanten: Eigenschaften und Berechnung
Tutorium
Tutorium Willkommen zurück, in der wunderbaren Welt der Statistik Teil II.
Tutorium
Unser letztes Tutorium
Tutorium
Tutorium Aufgabe 1 a) E(eIX)= 0 E(eIX)= E(Y-E(YIX)IX) = E(YIX)- E (E(YIX)IX) = E(YIX)- E(YIX) = 0 Im Mittel macht man mit seiner Schätzung keinen.
Tutorium
Unser letztes Tutorium Output – das Modell gut11 gut12 gut21 gut22 gut31 gut32 state1 state2 state3 XI MF
Unser neuntes Tutorium
Unser siebentes Tutorium
Unser zehntes Tutorium Materialien unter:
Tutorium Aufgabe 1 Informationen in Designmatrix in: - Darin sind die Prädiktoren enthalten - Aber sagt uns noch mehr! Untersuchungsdesign darin.
Unser sechstes Tutorium Materialien unter:
Multikollinearität Wann spricht man von Multikollinearität?
Wiederholung: Einfache Regressionsgleichung
Matrix-Algebra Grundlagen 1. Matrizen und Vektoren
Chi Quadrat Test Tamara Katschnig.
Lineare Algebra Komplizierte technologische Abläufe können übersichtlich mit Matrizen dargestellt werden. Prof. Dr. E. Larek
§20 Der Rang einer Matrix Jede (m,n)-Matrix kann auch als ein n-Tupel von Spaltenvektoren geschrieben werden: wobei (20.1) Definition:
Folie 1 Kapitel IV. Matrizen Inhalt: Matrizen als eigenständige mathematische Objekte Zusammenhang zwischen Matrizen und linearen Abbildungen Produkt von.
§23 Basiswechsel und allgemeine lineare Gruppe
Seminar: Datenerhebung
Lineare Algebra, Teil 2 Abbildungen
Statistik: Mehr zur Regression.
Kapitel 10 Multikollinearität
Kapitel 2 Das klassische Regressionsmodell
Kapitel 19 Kointegration
Kapitel 3 Lineare Regression: Schätzverfahren
Multivariate Statistische Verfahren
1 STATISIK LV Nr.: 0021 WS 2005/ November 2005.
§22 Invertierbare Matrizen und Äquivalenz von Matrizen
Statistik – Regression - Korrelation
Die einfache/multiple lineare Regression
Folie 1 §21 Das Produkt von Matrizen (21.1) Definition: Für eine (m,n)-Matrix A und eine (n,s)-Matrix B ist das (Matrizen-) Produkt AB definiert als (21.2)
Lineare Algebra 11. Matrizen Eine m  n-Matrix ist ein Raster aus m  n Koeffizienten, die in m Zeilen und n Spalten angeordnet sind. = (a ij )
Testtheorie (Vorlesung 4: ) Wiederholung/Zusammenfassung
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
6. Thema: Arbeiten mit Feldern
Graphische Datenverarbeitung
Klausurtermine: , Uhr , Uhr.
Lineare Gleichungen Allgemeine Einführung Äquivalenzumformungen
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
Außenhandelsbeziehungen zwischen China, USA, EU Makroökonometrie Vorlesung Dr. Oliver Bode.
Independent Component Analysis: Analyse natürlicher Bilder Friedrich Rau.
Ausgleich nach der Methode der kleinsten Quadrate
Die einfache/multiple lineare Regression
 Präsentation transkript:

Tutorium 11.06.07

Aufgabe 1 Definition der Inversen : Die zu einer quadratischen Matrix A inverse Matrix ist definiert als diejenige Matrix, für die gilt, wobei die Einheitsmatrix vom selben Typ wie A ist.

Aufgabe 1 So etwas ähnliches wie Division auf Matrizenebene (~ Reziproke der Matrix) In Regressionsanalyse nötig für Bestimmung der Parameter  Koeffizienten sind das Produkt aus der Inversen der Varianz-Kovarianzmatrix der Prädiktoren und der Kovarianzmatrix der Prädiktoren mit der abhängigen Variablen

Aufgabe 1 man braucht also Matrizen mit vollem Rang zur Koeffizientenberechnung Berechnungsproblem in SPSS bei hoher Kor der Prädiktoren (verdeutlicht Problem der Multikollinearität, ist aber eigentlich Redundanz)

Aufgabe 2 - Invertierbarkeit keine Inverse – nicht quadratisch Inverse existiert – quadratisch & voller Rang (Zeilen- bzw. Spaltenvektoren sind linear unabhängig) keine Inverse da zu einer Diagonalmatrix nur eine Inverse existiert, wenn die Elemente der Diagonalen sind) keine Inverse (kein voller Rang)

Aufgabe 2 - Invertierbarkeit  nicht zu jeder Matrix gibt es eine Inverse! Generell sind Inversen nur für quadratische Matrizen definiert, aber es gibt auch nicht zu jeder quadratischen Matrix eine. Nur wenn der Rang einer quadratischen Matrix, ,gleich n ist gibt es eine Inverse (Wenn der Rang kleiner n ist, existiert keine)

Aufgabe 3 Matrix mit Rang von 2 Siehe 2d) oder z.B. wichtig ist, dass 2 Vektoren eine Linearkombination voneinander darstellen, und linear unabhängig vom 3. Vektor sind, dann hat die Matrix einen Rang von 2. (Dabei ist der Rang die max. Anzahl der linear unabhängigen Spalten- (bzw. Zeilenvektoren)

Aufgabe 4 quadratische Matrizen A mit vollem Rang heißen regulär [Rang(A) = n] andernfalls heißt A singulär  heißt auch nicht positiv definiert nur reguläre quadratische Matrizen sind invertierbar singulär oder nicht positiv definiert stellen eine häufige Fehlermeldung in SPSS dar – man kann daraus also das Problem bei der Berechnung ablesen: (- Inverse zur Berechnung nötig, aber kein voller Rang- diese kann also nicht gebildet werden  Fehler)

Aufgabe 5 Berechnung  invertieren, transponieren, multiplizieren und addieren

Aufgabe 6 fixe Regressoren: wir machen nur Punktschätzungen, betrachten nur die gegebenen Stufen des Regressors stochastische Regressoren: wir machen kontinuierliche Schätzungen, obwohl wir auch nur die verschiedenen Stufen des Regressors gegeben haben daraus ergeben sich unterschiedliche Teststärken & Interpretationen fixe Regressoren: man kann seine Ergebnisse nur für die gegebenen Werte (Gruppen) von dem Regressor interpretieren  Es sind nur Aussagen für den Einfluss der gegebenen Werte des Regressors möglich stochastische Regressoren: man kann seine Ergebnisse für den gesamten Regressor betrachten  es sind also generalisiertere Aussagen für den Einfluss der gesamten Regressorvariable möglich

Aufgabe 7 Vorgehen: Stichprobe beschreiben: n (Erhebungsbedingungen: Wann & Wo, demografische Aspekte: Alter, Geschlecht) Hypothesen formulieren: Annahmen, (Depressivität zu Beginn wird erklärt durch…) – Interaktionshypothesen… Methode: klar hier multiple Regression vorgegeben, aber Vorgehen kann beschrieben werden (z.B. noch Interaktionsterme gebildet….) Ergebnisse: Signifikanz (p) nötig, aber reicht nicht! – auch Maß der praktischen Signifikanz - Effektstärke (R²)

- Regressionsmodell Vektoren klein und fett geschrieben! (Matrizen dann große Buchstaben) X sind die Prädiktoren (Alter, Geschlecht, Familienstand, Schulbildung)  Auswahl der Prädiktoren durch Theorie!!! Nicht explorativ an der selben SP Hypothese aufstellen, wo getestet wird… bei großer SP randomisiert teilen

Hypothese: Die Depressivität ist abhängig von Alter, Geschlecht, Familienstand und Schulabschluss, dabei gibt es keine Interaktion zwischen den Variablen

ACHTUNG Multikollinearität der Prädiktoren, deshalb diese nicht signifikant!!! … Schwer zu interpretieren! Gesamtmodel aber signifikant & Alter als Prädiktor … klärt Varianz auf – Aber praktische Signifikanz sagt uns, dass es nicht viel ist Effektgröße: R² 4,5 %

Möglichkeiten wieso so schlechte Vorhersage: Schlechte Prädiktoren (explorative Analyse) Falsche Modelannahmen! (gegen andere testen)

Bei c selbes Modell, wenn aber die Veränderung der Depressivität vorhergesagt werden soll neue Variable berechnen: - Differenzvariable, welche die Information der Veränderung enthält (Post – Prätestwerte)  diese als neue AV

Bis Bald!!! 