Die Präsentation wird geladen. Bitte warten

Die Präsentation wird geladen. Bitte warten

Lineare Algebra Komplizierte technologische Abläufe können übersichtlich mit Matrizen dargestellt werden. Prof. Dr. E. Larek 17.06.2009.

Ähnliche Präsentationen


Präsentation zum Thema: "Lineare Algebra Komplizierte technologische Abläufe können übersichtlich mit Matrizen dargestellt werden. Prof. Dr. E. Larek 17.06.2009."—  Präsentation transkript:

1 Lineare Algebra Komplizierte technologische Abläufe können übersichtlich mit Matrizen dargestellt werden. Prof. Dr. E. Larek

2 Lineare Algebra Die lineare Algebra erlaubt eine vereinfachte Darstellung komplizierter ökonomischer Probleme, die dann mit der vorhandenen Computertechnik effektiv bearbeitet werden können. Prof. Dr. E. Larek

3 Lineare Algebra 2. Matrizen 2.1 Matrizenoperationen
2.1.1 Addition und Subtraktion 2.1.2 Multiplikation einer Matrix mit einem Skalar 2.1.3 Multiplikation einer Matrix mit einer Matrix Eigenschaften von Matrizen Lineare Abhängigkeit und Rang Anwendungen Prof. Dr. E. Larek

4 Matrix Ein rechteckiges Schema von m•n geordneten Elementen aik wird Matrix A genannt. Prof. Dr. E. Larek

5 Matrix Das Format oder der Typ einer Matrix A wird durch das geordnete Paar (m, n) angegeben. Vektoren sind Matrizen mit nur einer Zeile oder einer Spalte. Prof. Dr. E. Larek

6 Gleichheit Zwei Matrizen A und B sind dann und nur dann gleich, wenn sie vom gleichen Typ sind und alle entsprechenden Elemente überein stimmen. Prof. Dr. E. Larek

7 transponierte Matrix Wenn in einer Matrix A alle Zeilen und alle Spalten miteinander vertauscht werden, erhält man die transponierte oder gestürzte Matrix AT . Prof. Dr. E. Larek

8 quadratische Matrix Eine quadratische Matrix A ist vom Format oder vom Typ (n, n) bzw. von der Ordnung n. Eine quadratische Matrix A ist symmetrisch, wenn AT = A gilt. Prof. Dr. E. Larek

9 Blockmatrix Eine Blockmatrix oder Hypermatrix ist eine Matrix, deren Elemente wiederum Matrizen sind. Prof. Dr. E. Larek

10 Matrizenaddition Für die Addition von zwei Matrizen A und B gelten das Kommutativgesetz A + B = B + A sowie das Assoziativgesetz A +B +C = (A +B) +C = A +(B +C). Prof. Dr. E. Larek

11 Multiplikation mit Skalar
Man multipliziert eine Matrix A mit einem Skalar k, indem man jedes Element aik mit dem Skalar k multipliziert. kA = Ak = (k aik ) Prof. Dr. E. Larek

12 Skalarprodukt Das Skalarprodukt aT b zweier Spaltenvektoren a und b entsteht durch paarweise Multiplikation der Elemente dieser beiden Vektoren und anschließender Addition. Prof. Dr. E. Larek

13 Matrizenmultiplikation
Zwei Matrizen A und B heißen verkettet, wenn die Spaltenzahl von A gleich der Zeilenzahl von B ist. Prof. Dr. E. Larek

14 Matrizenmultiplikation
Das Produkt C zweier verketteter Matrizen A und B besitzt die Elemente cik , die aus dem Skalarprodukt der i-ten Zeile von A mit der k-ten Spalte von B berechnet werden. Prof. Dr. E. Larek

15 Schema von Falk Prof. Dr. E. Larek

16 Gesetze zur Multiplikation
Für die Matrizenmultiplikation gelten das Distributivgesetz (A + B)C = AC + BC A(B + C) = AB + AC und das Assoziativgesetz ABC = (AB)C = A(BC) , falls die Zwischensummen und Produkte existieren. Prof. Dr. E. Larek

17 Eigenschaften In einer Nullmatrix 0 sind alle Elemente null.
In einer Diagonalmatrix D sind alle Elemente aik = 0 für i ≠ k . Eine Einheitsmatrix E ist eine Diagonalmatrix mit aii=1 für alle i. Prof. Dr. E. Larek

18 Orthogonale Matrix Eine orthogonale Matrix A ergibt bei Multiplikation mit der Transponierten AT die Einheitsmatrix E . AT A = A AT = E Prof. Dr. E. Larek

19 reguläre Matrix Eine Matrix ist regulär, wenn die Determinante det(A) ≠ 0 ist. Für eine singuläre Matrix A erhält man die Determinante det(A) = 0 . Prof. Dr. E. Larek

20 inverse Matrix Die Matrix A-1 ist inverse Matrix von A , wenn A A-1 = A-1 A = E gilt. Prof. Dr. E. Larek

21 inverse Matrix Jede reguläre Matrix A besitzt eine eindeutig bestimmte inverse Matrix A-1 . Prof. Dr. E. Larek

22 Linearkombination Der Vektor an ist Linearkombination der Vektoren
a1 , a2 , ... , an , wenn an = l1 a1 + l2 a ln-1 an-1 für gebildet werden kann. Prof. Dr. E. Larek

23 konvexe Linearkombination
Der Vektor an ist eine konvexe Linearkombination der Vektoren a1 , a2 , ... , an-1 , wenn an = l1 a1 + l2 a ln-1 an-1 für li  R mit li ≥ 0 und gebildet werden kann. Prof. Dr. E. Larek

24 lineare Abhängigkeit Die Vektoren ai mit i = 1, 2, ... , n heißen linear abhängig, wenn sich einer der Vektoren als Linearkom- bination der übrigen Vektoren darstellen lässt. Prof. Dr. E. Larek

25 lineare Unabhängigkeit
Es sind höchstens m Vektoren ai der Ordnung m voneinander linear unabhängig. Sind n Vektoren gegeben, so beschreibt der Rang r die Anzahl linear unabhängiger Vektoren. Prof. Dr. E. Larek

26 Rang Die Matrix A hat den Rang r , wenn es eine Unterdeterminante der Ordnung r gibt, die ungleich null ist, und alle Unterdeterminanten höherer Ordnung verschwinden. Prof. Dr. E. Larek

27 Rang Der Rang r einer Matrix A vom Typ (m, n) ist höchstens gleich der kleineren der beiden Zahlen m oder n. Prof. Dr. E. Larek

28 Rang einer Matrix Der Rang einer Matrix A ändert sich nicht, wenn
zwei Reihen miteinander vertauscht werden, die Matrix transponiert wird, eine Reihe mit einem Faktor k multipliziert wird oder das k-fache einer Reihe zu einer anderen Reihe addiert wird. Prof. Dr. E. Larek


Herunterladen ppt "Lineare Algebra Komplizierte technologische Abläufe können übersichtlich mit Matrizen dargestellt werden. Prof. Dr. E. Larek 17.06.2009."

Ähnliche Präsentationen


Google-Anzeigen