Bestimmung der Regressionsgewichte in der multiplen Regression

Slides:



Advertisements
Ähnliche Präsentationen
Tutorat Statistik II im SS 09 Mediator- & Moderatoranalyse
Advertisements

Tutorat Statistik II im SS 09 Multiple Regression
Statistik-Tutorat SS 2009 Christina
Christian Schindelhauer
Vom graphischen Differenzieren
11. Matrizen. 11. Matrizen Eine mn-Matrix ist ein Raster aus mn Koeffizienten, die in m Zeilen und n Spalten angeordnet sind. = (aij)1  i  m, 1.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2006/2007 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Klicke Dich mit der linken Maustaste durch das Übungsprogramm!
Klicke Dich mit der linken Maustaste durch das Übungsprogramm! Ein Übungsprogramm der IGS - Hamm/Sieg © IGS-Hamm/Sieg 2007 Dietmar Schumacher Die Binomischen.
Regression und Korrelation
Lösung von linearen Gleichungssystemen - Grundlagen
Gliederung Unterschied zwischen Kriteriums- und Prädiktorvariblen
Forschungsstatistik I
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Forschungsstatistik I Prof. Dr. G. Meinhardt WS 2004/2005 Fachbereich Sozialwissenschaften, Psychologisches Institut Johannes Gutenberg Universität Mainz.
Das Allgemeine lineare Modell (ALM) - Varianz als Schlüsselkonzept
Dynamische Programmierung (2) Matrixkettenprodukt
WS Algorithmentheorie 08 – Dynamische Programmierung (2) Matrixkettenprodukt Prof. Dr. Th. Ottmann.
Schwierigkeitsgrad III 6 X - 7 = X
Beispiele für Gleichungssysteme
Aufgabe Der Zusammenhang zwischen einem traumatischen Erlebnis und der Entstehung einer PTBS wird von mehreren Variablen …………….: Copingstrategien, Kontrollüberzeigung,
Gaußscher Algorithmus
F FnFn z Prof. Dr. Johann Graf Lambsdorff Universität Passau SS a. Anhang zur Bestimmung der optimalen Taylor-Regel.
Tutorium
Tutorium
Tutorium
Tutorium Aufgabe 1 a) E(eIX)= 0 E(eIX)= E(Y-E(YIX)IX) = E(YIX)- E (E(YIX)IX) = E(YIX)- E(YIX) = 0 Im Mittel macht man mit seiner Schätzung keinen.
Unser siebentes Tutorium
Matrix-Algebra Grundlagen 1. Matrizen und Vektoren
Algebraische Gleichungen
§24 Affine Koordinatensysteme
Die folgenden Gleichungen wurden über die Grundmenge R gelöst. HAYAL ÖZ.
Gleichungssysteme Galip Turan.
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Effiziente Algorithmen Hartmut Klauck Universität Frankfurt SS
Beweissysteme Hartmut Klauck Universität Frankfurt WS 06/
Folie 1 Kapitel IV. Matrizen Inhalt: Matrizen als eigenständige mathematische Objekte Zusammenhang zwischen Matrizen und linearen Abbildungen Produkt von.
§3 Allgemeine lineare Gleichungssysteme
Das Allgemeine Lineare Modell (ALM)
Gleichungen und Gleichungssysteme
Lineare Algebra, Teil 2 Abbildungen
Technische Informatik Reihungen – Felder - Arrays.
Kapitel 2 Das klassische Regressionsmodell
Einfache und multiple Regression
Jedem angehenden Diplom-Ingenieur wird schon zu Beginn beigebracht, zum Beispiel die Summe von zwei Größen nicht etwa in der Form darzustellen.
Algebraische Schleifen und Strukturelle Singularitäten
Lösung nichtlinear Gleichungssysteme
Ausgleichungsrechnung
Erste Lektion in angewandter
Gleichungen mit einer Variablen lösen
Strategie der Modellbildung
Multivariate Statistische Verfahren

Erste Lektion in angewandter
1 Albert-Ludwigs-Universität Freiburg Rechnernetze und Telematik Prof. Dr. Christian Schindelhauer Informatik III Christian Schindelhauer Wintersemester.
Rechnen mit negativen Klammern
Die einfache/multiple lineare Regression
Das Newton-Verfahren – Vorstellung
Jedem angehenden Ingenieur wird schon zu Beginn beigebracht, zum Beispiel die Summe von zwei Größen nicht etwa in der Form darzustellen. Diese Form ist.
Folie 1 §21 Das Produkt von Matrizen (21.1) Definition: Für eine (m,n)-Matrix A und eine (n,s)-Matrix B ist das (Matrizen-) Produkt AB definiert als (21.2)
Dr.-Ing. R. Marklein - GET I - WS 06/07 - V Grundlagen der Elektrotechnik I (GET I) Vorlesung am Fr. 08:30-10:00 Uhr; R (Hörsaal)
setzt Linearität des Zusammenhangs voraus
Die einfache/multiple lineare Regression
Rechnen mit negativen Klammern
LAP IT-Techniker und IT-Informatiker
Reihenfolge der Operatoren
Multivariate Statistische Verfahren
Kapitel 2: Testtheorie / Testmodelle
Fortgeschrittene statistische Methoden SS2020
 Präsentation transkript:

Bestimmung der Regressionsgewichte in der multiplen Regression

Standardwert-Regression Versuchsperson i p Prädiktoren (UVs) Geschätzter Kriteriumswert Wert der VP i auf Prädiktor 2 Gewichtung von Prädiktor 2 Gesucht sind jetzt Werte für die Gewichte b, so daß die Abweichungen der Schätzwerte von den wahren y-Werten möglichst klein sind. Genauer: Die Gewichte sollen so gewählt werden, daß die Summe der quadrierten Abweichungen der Schätzwerte von den wahren Werten minimal wird. QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

KQ-Kriterium der quadrierten Die Summe Abweichungen der Schätzwerte vom wahren Wert soll minimal werden. QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

KQ-Kriterium Minimieren heißt: nach Variable ableiten, Ableitung Nullsetzen, nach Wert der Variable auflösen. Hier will man die Optimalwerte für p verschiedene Variablen finden. Daher leitet man p-mal ab: nach Variable b1, nach Variable b2 usw. Damit erhält man p Gleichungen für p Variablen. QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

Partiell ableiten nach b1 Eckige Klammer abgeleitet: 2 als Vorfaktor, eckige Klammer hinschreiben Ableitung der Summe gibt wieder Summe Inhalt der eckigen Klammer nachdifferenzieren nach b1. Alle anderen b`s sind Konstanten  Ableitung 0 Nur der Vorfaktor von b1 bleibt übrig. QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

Partiell ableiten nach b1 Das muß jetzt etwas vereinfacht werden. QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

Ableitung vereinfachen 1 Mit 2 dividieren; (-zi1) in die eckige Klammer einmultiplizieren Summenzeichen reinziehen Die Summe läuft immer über alle Versuchspersonen (i = 1…n). QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

Ableitung vereinfachen 2 Zur Erinnerung: Ableitung durch n dividieren r1p -ry1 r11=1 r12 QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

Ableitung vereinfachen 3 Was passiert, wenn wir nach b2 partiell ableiten? Durch das Einmultiplizieren von zi2 ändern sich die Indizes der Korrelationskoeffizenten: statt r11 , r12 , r23 jetzt r21 , r22 , r23 QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

Ergebnis aller partiellen Ableitungen = Skript S. 68 p Gleichungen für p Unbekannte Für solche Fragen wurde die lineare Algebra entwickelt. Die Lösungsschemata sind in effizienten Computerverfahren (linpack) implementiert, das macht man nicht von Hand. QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

Gleichungssystem in Matrixschreibweise Vektor der Prädiktor-Kriterium- Korrelationen Matrix der Interkorrelationen der Prädiktoren Vektor der Regressionsgewichte QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006

Matrixschreibweise Was wir haben wollen, ist der b-Vektor. Da müßte man durch R dividieren. Division = Multiplikation-1 Technisch korrekt: Die Inverse der Korrelationsmatrix wird von links anmultipliziert. Die Inversion einer Matrix ist aber nicht ganz einfach. Fall für den Computer. QMA, Kapitel 4.5.2.1 Multiple Regression Sommersemester 2006