Seminarthema 4 Numerische Methoden der Eigenwertberechnung Von: Robert Schirmer Matnr.: 41460 Betreuer: Prof.Dr Eiermann.

Slides:



Advertisements
Ähnliche Präsentationen
Einstieg in die Integralrechnung
Advertisements

Der große Rohrbruch.
Informatik II: Algorithmen und Datenstrukturen SS 2013
Rekursion: Rekurrenz: Algorithmen rufen sich selbst (rekursiv) auf.
Falls Algorithmen sich selbst rekursiv aufrufen, so kann ihr Laufzeitverhalten bzw. ihr Speicherplatzbedarf in der Regel durch eine Rekursionsformel (recurrence,
Polynomial Root Isolation
3. 3D-Betrachtungstransformationen
Simulation komplexer technischer Anlagen
Algebraische Zahlen: Exaktes Rechnen mit Wurzeln
Schnelle Matrizenoperationen von Christian Büttner
Vom graphischen Differenzieren
Prof. Dr. W. Conen 15. November 2004
13. Transformationen mit Matrizen
WS 05/06Automatische Akquisition linguistischen Wissens1 Partielles Wissen erweitern 1.Zusammenhang mit bisherigen Algorithmen 2.Vom offensichtlichen zum.
Seminar „Extrapolationsmethoden für zufällige Felder“
Seminarthema 4 Von: Robert Schirmer Matnr.: Betreuer: Prof.Dr Eiermann.
HEINZ NIXDORF INSTITUT Universität Paderborn Fachbereich Mathematik/Informatik 1 Algorithm. Grundlagen des Internets 24. Juni 2002 Christian Schindelhauer.
Theorie psychometrischer Tests, III
Einführung Übersicht Einsatz der Zielwertsuche Einsatz des Solvers
Diese Fragen sollten Sie beantworten können
Was wir zur numerischen Lösung von Dglen wissen
Lösung von linearen Gleichungssystemen - Grundlagen
Das Halteproblem. Gibt es einen Algorithmus, mit dem man für jedes beliebig vorgegebene Programm R und für jede beliebig vorgegebene Eingabe E entscheiden.
Vorlesung Informatik 2 Algorithmen und Datenstrukturen (27 – Kürzeste Wege) Prof. Th. Ottmann.
Kapitel 1 Das Schubfachprinzip
Kapitel 6 Differenzierbarkeit. Kapitel 6: Differenzierbarkeit © Beutelspacher Juni 2005 Seite 2 Inhalt 6.1 Die Definition 6.2 Die Eigenschaften 6.3 Extremwerte.
Lösung linearer Gleichungssysteme
Numerik partieller Differentialgleichungen
Beispiele für Gleichungssysteme
(Ron Rivest, Adi Shamit, Leonard Adleman , 1977)
Approximation von Nullstellen: Newtonverfahren
Mathematische Grundlagen und Rechnen mit algebraischen Zahlen
Folie 1 § 29 Determinanten: Eigenschaften und Berechnung (29.1) Definition: Eine Determinantenfunktion auf K nxn ist eine Abbildung (im Falle char(K) ungleich.
Matrix-Algebra Grundlagen 1. Matrizen und Vektoren
Seminar Stringtheorie und Geometrische Methoden der Physik
Berechnen von Momenten und Querkräften (Voraussetzung: Auflagerkraftberechnung) Das statische System ENDE.
Bestimmung der Regressionsgewichte in der multiplen Regression
§24 Affine Koordinatensysteme
Universität Stuttgart Wissensverarbeitung und Numerik I nstitut für K ernenergetik und E nergiesysteme Numerik partieller Differentialgleichungen, SS 01Teil.
Abschlussvortrag zur Studienarbeit
Die Welt der Fraktale Eine Kurzeinführung.
Zeit: 13h-15h Datum: Raum: IFW B42
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Effiziente Algorithmen
Quantum Computing Hartmut Klauck Universität Frankfurt WS 05/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
Quantum Computing Hartmut Klauck Universität Frankfurt WS 04/
§20 Der Rang einer Matrix Jede (m,n)-Matrix kann auch als ein n-Tupel von Spaltenvektoren geschrieben werden: wobei (20.1) Definition:
§23 Basiswechsel und allgemeine lineare Gruppe
§3 Allgemeine lineare Gleichungssysteme
Gleichungen und Gleichungssysteme
Lineare Algebra, Teil 2 Abbildungen
… oder wie finde ich den Weg
Lösung nichtlinear Gleichungssysteme
Strategie der Modellbildung
Eine Hilfe zum Verständnis der Finite-Elemente-Methode
Multivariate Statistische Verfahren
ENDLICHE KÖRPER RSA – VERFAHREN.
Eindimensionale Bewegungen
Vom graphischen Differenzieren
Folie 1 §21 Das Produkt von Matrizen (21.1) Definition: Für eine (m,n)-Matrix A und eine (n,s)-Matrix B ist das (Matrizen-) Produkt AB definiert als (21.2)
Hier wird Wissen Wirklichkeit 1 Lektion in Statistik.
Vortrag Relative Orientierung
Anfang Präsentation 3. November, 2004 Tarjan’s Schleifenaufbrechalgorithmus In dieser Vorlesung wird ein Verfahren vorgestellt, welches in der Lage ist,
6. Thema: Arbeiten mit Feldern
Graphische Datenverarbeitung
Kap. 7: Die quadratische Funktion – numerisch, graphisch, theoretisch
„Inside CAS“ Teil I: Polynome faktorisieren Teil II: Automatisches Beweisen Heinz Klemenz, KZO Wetzikon,
Matrizen, Eigenschwingungen zeitunabhängige Schrödingergleichung
PCA Principal Component Analysis. Gliederung PCA – Warum eigentlich? PCA – Was ist zu tun? Was passiert eigentlich? Anwendungen Zusammenfassung.
 Präsentation transkript:

Seminarthema 4 Numerische Methoden der Eigenwertberechnung Von: Robert Schirmer Matnr.: Betreuer: Prof.Dr Eiermann

Inhalt: von-Mises - Verfahren Inverse Iteration shifted Inverse Iteration

von-Mises Verfahren / Power-Methode Voraussetzungen: (V1) A (n x n) A diagonalisierbar es gibt eine Basis des aus Eigenvektoren von A (V2) jeder Vektor aus als Linearkombination dieser Basisvektoren

Verfahren: man wählt beliebigen Startvektor und bildet Iterationsfolge,,... nach (V2): da gilt

Verfahren iterativ fortsetzen umstellen:

Was passiert wenn ? laut (V1) folgt => man erhält also ein Vielfaches des Eigenvektors zum zugehörigen Eigenwert Folgerung: von Mises Verfahren liefert betragsgrößten EW falls deshalb verwendet man stets normierte da so folgt: konvergiert gegen normierten EV zum EW -> siehe späteres MATLAB Bsp.

Konvergenzgeschwindigkeit des Verfahrens ist sehr gering falls (da so nur langsam gegen NULL strebt) es konvergiert umso schneller, je kleiner ist Wie erhält man Eigenwert? Durch Rayleigh-Quotienten: Beweis:

Algorithmus: i=0 repeat until Konvergenz (normierter EV) (EW) Siehe Mises.m

Inverse Iteration Nun Suche nach dem betraglich kleinsten EW Macht sich zunutze wenn so da beim von-Mises-Verfahren der betraglich größte EW war, so ist nun der betraglich kleinste EW es ist also zu lösen: da man nicht die Inverse berechnen will stellt man um und erhält: bei jedem Iterationsschritt ist also ein Gleichungssystem zu lösen

Beispiel: Es gilt zu beachten das nach jedem Schritt wieder normiert wurde durch:, da sonst sehr groß werden könnten. durch Rayleigh erhält man den EW beim 6. Schritt:

Shifted Inverse Iteration Diese oben genannte Verfahren kann man nun noch erweitern: Nehmen wir an wir suchen einen EW in der Umgebung von Wir bedienen uns dem Shiften : man erhält EW durch Inverse Iteration erhalten wir einen fiktiven kleinsten EW-> man muss noch zurückshiften und erhält wahren EW in der Umgebung von. Das Verfahren konvergiert umso schneller, je kleiner das Verhältnis: Wobei der Abstand zum nächstgelegensten EW und der Abstand zum zweitnächsten ist. Siehe inverse_shift.m

Quellen: Gene H. Golub and Charles F. Van Loan. Matrix Computations. The Johns Hopkins University Press, Baltimore, MA, 3rd edition, 1996 James W. Demmel. Applied Numerical Linear Algebra. SIAM, Philadelphis, PA, 1997 Numerik für Eigenwertaufgaben Dr. Norbert Herrmann