Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate.

Ähnliche Präsentationen


Präsentation zum Thema: "Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate."—  Präsentation transkript:

1

2 Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate (PLS) 6. Zusammenfassung

3 1. Problemstellung Quantitative Bestimmung der 3 isomeren Nitrophenole in wäßriger Lösung o-Nitrophenol m-Nitrophenol p-Nitrophenol

4 1.1 Kalibrierproben Wie stellt man die Kalibrierproben zusammen? 1. Forderung: möglichst wenige Kalibrierproben (in der Praxis max.10 Bequemlichkeit) 2. Forderung: die Kalibration muß den zu erwartenden Konzentrationsbereich abdecken 3. Forderung: Randomisierung hinsichtlich Konzentration und zeitlicher Reihenfolge mögliche Herangehensweise: Konzentrationsbereich: mol/l C mol/l low = l = mol/l medium = m = mol/l high = h = mol/l

5 1.1 Kalibrierproben lmh o-Nitrophenol m-Nitrophenol p-Nitrophenol l l ml hm lm m h h lh mh l l l l l m l l h l m l l m m l m h l h l l h m l h h m l l m l m m l h m m l m m m m m h m h l m h m m h h h l l h l m h l h h m l h m m h m h h h l h h m h h h 3 Konzentrationen 27x y z10x y z

6 Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate (PLS) 6. Zusammenfassung

7 2.1 ULR - Grundlagen Annahmen: x = unabhängige Variable (z.B. Konzentration), fehlerfrei (sonst orthogonale Regression) y = abhängige Variable (z.B. Extinktion), Meßwert fehlerbehaftet xx yy berechnetes Modellwahres Modell

8 2.1 Least-Squares Methode (Gauss) Zielstellung: berechnete Regressionsgerade soll sich der Punktwolke möglichst gut anpassen Berechnung der Residuen: Minimierung der Fehlerquadratsumme: Minimierung bedeutet Bilden der partiellen 1. Ableitung und Nullsetzen der Gleichungen Die meisten Regressionsmethoden arbeiten nach dieser Methode!!!

9 2.1 Least-Squares Methode (Gauss) Berechnung der Modellparameter: Eine bedeutsame statistische Größe für eine solche Regression ist die Varianz der Residuen: Zurück zum Beispiel: Schätzwert für den reinen Experimentalfehler 2 wenn Modell korrekt Welche Wellenlänge soll ich zur Regression verwenden?

10 2.2 Auswahl der Wellenlänge Annahme: Diejenige Wellenlänge deren Absorptionswerte am besten mit den entsprechenden Konzentrationswerten korrelieren Pearsonscher Korrelationskoeffizient R als Maßzahl für einen linearen Zusammenhang E = Vektor der Extinktionen der Proben C = Vektor der Konzentrationen des Nitrophenols in den Proben

11 2.3 ULR - Ergebnis Ergebnis: Meßpunkte Regressionsgerade Konfidenzintervall

12 2.3 ULR - Ergebnis Was bedeutet das Konfidenzintervall? Intervall, in dem der wahre Wert 0 bei einem bestimmten Wert von x 0 mit einer Wahrscheinlichkeit von 95% liegt m-Messungen einer unbekannten Probe und Vorhersage der Konzentration Angabe des Ergebnisses immer in der Form: n = Zahl der Kalibrierproben t = Parameter der t-Verteilung (tabelliert)

13 2.3 ULR - Ergebnis Wie gut funktioniert das Modell zur Vorhersage unbekannter Proben? Test: Vorhersage der Konzentration von 115 unbekannten Proben Maßzahlen für die Güte des Kalibrationsmodells: Zur graphischen Beurteilung dient der Wiederfindungsplot x-Achse: bekannte Konzentration der 115 Proben y-Achse: nach dem Kalibrationsmodell berechnete Konzentrationen der 115 Proben PRESS = Predicted Residual Error Sum of Squares RMSPE = Root Mean Squared Prediction Error

14 2.3 ULR - Ergebnis PRESS= mol 2 /l 2 RMSPE= mol/l Modell: [O-NPh]= [ E 485nm ] mol/l

15 Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate (PLS) 6. Zusammenfassung

16 3.1 MLR - Grundlagen Muß man sich bei der Auswertung auf eine Wellenlänge beschränken? Bisher folgendes Modell: Erweiterung auf m-Variablen: n-Kalibrierproben mit unterschiedlicher Zusammensetzung (im Bsp. n=10) Messung der Extinktionsspektrums jeder Probe an m-Wellenlängen (im.Bsp. 280nm - 500nm) Wichtig: n > m y i = die i-te Beobachtung (i. Bsp. die Konzentration der i-ten Probe) x ik = Wert der k-ten unabhängigen Variablen (i. Bsp. Extinktion bei der k-ten Wellenlänge) bei Messung der i-ten Probe

17 3.1 MLR - Grundlagen Damit ergibt sich folgendes Modell: Es gilt also, die p = m + 1 Schätzungen (b 0, b 1,...,b m ) der unbekannten Regressionskoeffizienten ( 0, 1,..., m ) zu finden !!! Matrixschreibweise des Gleichungssystems:

18 3.1 MLR - Grundlagen In Matrixschreibweise sieht das Modell folgendermaßen aus: Die least-squares-Lösung für b lautet dann: Kleinbuchstabe fettgedruckt = Vektor Großbuchstabe fettgedruckt = Matrix X T bedeutet: X transponieren -1 bedeutet: Matrix invertieren Inversion einer quadratischen Matrix bedeutet immer Division durch die Determinante dieser Matrix !!!

19 3.1 MLR - Grundlagen 1. Probelm: Wie groß ist die Determinante wenn X die Kalibrierdatenmatrix ist ? 2. Problem: Ich kann nicht 222 Regressionskoeffizienten berechnen wenn ich nur 10 Kalibrierproben gemessen habe !!! Lösung: Methode zur Modellfindung schrittweise vorwärts Varianzanalyse: Sum of Squares die auf die Regression zurückzuführen sind mit p-1 degrees of freedom det X´X = 0

20 3.1 MLR - Grundlagen Berechnung der Sum of Squares der Residuen mit n-p degrees of freedom: Berechnung der Mean Sum of Squares der Regression und der Residuen Bestimmen des geeigneten Modells: Modell 1:SS Reg (1) Modell 2:SS Reg (2)

21 3.1 MLR - Grundlagen Ist Modell 2 wirklich besser geeignet als das einfachere Modell 1 ? Überprüfung mit einem F-Test: wenn F > F 0.05,df(2)-df(1),n-p wenn F < F 0.05,df(2)-df(1),n-p Modell 2 signifikant besser Modell 2 nicht signifikant besser (Modell 1 verwenden) höhere Modelle prüfen

22 PRESS= mol 2 /l 2 RMSPE= mol/l Modell: [O-NPh]= [ E 485nm ] mol/l Modell: [O-NPh] = [ E 485nm E 314nm E 500nm ] mol/l PRESS= mol 2 /l 2 RMSPE= mol/l 3.2 MLR - Ergebnisse

23 Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate (PLS) 6. Zusammenfassung

24 4.1 PCR - Grundlagen Was bedeutet Hauptkomponentenanalyse? Datenzerlegung in eine Score- und eine Loadingmatrix Daten Matrix X n m j= m i=1. n Loading Matrix P m j=1. m p=1.. k m Score Matrix S n m i=1. n p=1.. k m X = S P T Und was bringt mir das ?

25 4.2 Datenvorbehandlung Welche Möglichkeiten der Datenvorbehandlung gibt es? Rohdaten MW=? Std=? zentrierte Daten MW=0 Std=? standardisierte Daten MW=0 Std=1

26 Wie kann ich mir die PCA veranschaulichen ? Beispieldaten aus dem Nitrophenoldatensatz: vor der Zentrierungnach der Zentrierung 4.2 Datenvorbehandlung

27 4.3 Der NIPALS-Algorithmus

28 Nonlinear Iterative Partial Least Squares t 0 kann willkürlich gewählt werden Xt wTwT = Spaltensingulärvektor = Zeilensingulärvektor

29 4.3 Der NIPALS-Algorithmus Berechnung des zugehörigen Singulärwerts: Residual-Datenmatrix: Geometrische Interpretation der PCR-Hauptkomponenten NIPALS

30 4.4 Durchführung der PCR Wie führe ich die Hauptkomponentenregression durch? 1. Datenvorbehandlung durch Zentrierung: 2. Singulärwertzerlegung der zentrierten Datenmatrix Z 3. Berechnung der Scores- und der Loadings X = Kalibrierdatenmatrix 1 = 10 1 Vektor aus 1en m = Vektor der Spaltenmittelwerte U = Matrix der Zeilensingulärvektoren = Matrix der Singulärwerte V = Matrix der Spaltensingulärvektoren S = Scorematrix P = Loadingmatirx

31 4.4 Durchführung der PCR Was bedeuten diese beiden Matrizen? Score-Matrix: Koordinaten der n-Objekte im Raum der durch die m-Hauptkomponenten aufgespannt wird Loadingmatrix: enthält die Faktoren für die Linearkombination der ursprünglichen Variablen zur Berechnung der Scores (wenn p normiert Richtungskosinus) (Vorsicht: NIPALS Drehrichtung uneinheitl.) Komponenten Rauschen

32 Wie führe ich die Hauptkomponentenregression durch? 4. Aufstellen der Regressionsgleichung für die Kalibrierdaten 5. Least-Squares-Schätzung der Regressionskoeffizienten 6. Vorhersage der unbekannten Proben c = Konzentrationsvektor c T = c = Mittelwert von c S * = Scorematrix mit den 3 PCs q * = Vektor der Regressionskoeff. 4.4 Durchführung der PCR

33 PRESS= mol 2 /l 2 RMSPE= mol/l Modell: [O-NPh]= [ E 485nm ] mol/l 4.5 PCR - Ergebnisse Modell: [O-NPh] = [ Score Score Score3] mol/l PRESS = mol 2 l -2 RMSP = mol l -1 Modell: [O-NPh] = [ E 485nm E 314nm E 500nm ] mol/l PRESS= mol 2 /l 2 RMSPE= mol/l

34 Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate (PLS) 6. Zusammenfassung

35 5.1 PLS - Grundlagen Kann man Scores finden die viel Varianz ausschöpfen und Vorhersagekraft für y haben? Der NIPALS-PLS Algorithmus versucht beide Forderungen zu erfüllen Als u 0 wird die eine Spalte von Y gewählt: X w t q u Y

36 Mit dem konvergenten Scorevektor t erhält man die enstprechen Faktorladungen zu: Berechnung der Residualmatrizen Wiederholung des Zyklus Berechnung aller Faktoren Bestimmung der Zahl relevanter Faktoren (z.B. durch Kreuzvalidation) Matrix der Regressionskoeffizienten Vorhersage der Konzentration von o-Nitrophenol in den 115 unbekannten Proben 5.1 PLS - Grundlagen

37 Was bedeutet das im Vergleich zur PCR ? Der NIPALS-Algorithmus erlaubt die iterative Berechnung von Eigenvektoren quadratischer Matrizen NIPALS-PCR Geometrische Interpretation der PLS-Hauptkomponenten NIPALS-PLS 5.1 PLS - Grundlagen

38 jedes Vektorpaar t und u erfüllt folgende Eigenschaften: Die Hauptkomponenten Regression maximiert ausschließlich var(t) PLS maximiert die Kovarianz zwischen t und u Die Zahl der zu verwendenden Faktoren wird über Kreuzvalidation bestimmt: Kreuzvalidation (leave one out-Methode): Man entfernt das 1. Objekt aus dem Kalibrierdatensatz Mit den restlichen (n-1) Objekten wird das Kalibrationsmodell berechnet Mit diesem Kalibrationsmodell wird das 1. Objekt vorausgesagt Diese Prozedur wiederholt man für alle n-Objekte Die günstige Anzahl von Faktoren für das Modell bestimmt man über den folgenden Plot 5.1 PLS - Grundlagen

39 5.2 Kreuzvalidation Kreuzvalidation für o-Nitrophenol

40 5.3 Ergebnis bei 7 Faktoren im Modell PRESS= mol 2 /l 2 RMSPE= mol/l

41 Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate (PLS) 6. Zusammenfassung

42 Wann braucht man multivariate Regressionsmethoden? Im Labor hat man normalerweise wenige Kalibrierproben zur Verfügung An jeder Kalibrierprobe können viele Variablen gemessen werden (z.B. Spektren) Beschränkung auf eine Variable = univariate Arbeitsweise wertvolle Informationen werden verschenkt Vorteile multivariater Arbeitsweise? Maximale Ausnutzung der Information des Datensatzes Bei dimensionsreduzierenden Methoden (z.B. PCR, PLS) - sachlogische Interpretation des Modells möglich Hohe Vorhersagekraft des Modells Nachteile multivariater Arbeitsweise? Erhöhter Rechenaufwand Algorithmen zum Teil etwas undurchsichtig Black Box - Anwendung gefährlich Verfahrenskenngrößen wie Nachweisgrenze, Erfassungsgrenze etc. noch nicht definiert

43


Herunterladen ppt "Inhalt 1. Problemstellung 2. Univariate lineare Regression 3. Multiple lineare Regression 4. Hauptkomponenten Regression (PCR) 5. Partielle kleinste Quadrate."

Ähnliche Präsentationen


Google-Anzeigen