Lineare Algebra Komplizierte technologische Abläufe können übersichtlich mit Matrizen dargestellt werden. Prof. Dr. E. Larek 17.06.2009
Lineare Algebra Die lineare Algebra erlaubt eine vereinfachte Darstellung komplizierter ökonomischer Probleme, die dann mit der vorhandenen Computertechnik effektiv bearbeitet werden können. Prof. Dr. E. Larek 17.06.2009
Lineare Algebra 2. Matrizen 2.1 Matrizenoperationen 2.1.1 Addition und Subtraktion 2.1.2 Multiplikation einer Matrix mit einem Skalar 2.1.3 Multiplikation einer Matrix mit einer Matrix 2.2 Eigenschaften von Matrizen 2.3 Lineare Abhängigkeit und Rang 2.4 Anwendungen Prof. Dr. E. Larek 17.06.2009
Matrix Ein rechteckiges Schema von m•n geordneten Elementen aik wird Matrix A genannt. Prof. Dr. E. Larek 17.06.2009
Matrix Das Format oder der Typ einer Matrix A wird durch das geordnete Paar (m, n) angegeben. Vektoren sind Matrizen mit nur einer Zeile oder einer Spalte. Prof. Dr. E. Larek 17.06.2009
Gleichheit Zwei Matrizen A und B sind dann und nur dann gleich, wenn sie vom gleichen Typ sind und alle entsprechenden Elemente überein stimmen. Prof. Dr. E. Larek 17.06.2009
transponierte Matrix Wenn in einer Matrix A alle Zeilen und alle Spalten miteinander vertauscht werden, erhält man die transponierte oder gestürzte Matrix AT . Prof. Dr. E. Larek 17.06.2009
quadratische Matrix Eine quadratische Matrix A ist vom Format oder vom Typ (n, n) bzw. von der Ordnung n. Eine quadratische Matrix A ist symmetrisch, wenn AT = A gilt. Prof. Dr. E. Larek 17.06.2009
Blockmatrix Eine Blockmatrix oder Hypermatrix ist eine Matrix, deren Elemente wiederum Matrizen sind. Prof. Dr. E. Larek 17.06.2009
Matrizenaddition Für die Addition von zwei Matrizen A und B gelten das Kommutativgesetz A + B = B + A sowie das Assoziativgesetz A +B +C = (A +B) +C = A +(B +C). Prof. Dr. E. Larek 17.06.2009
Multiplikation mit Skalar Man multipliziert eine Matrix A mit einem Skalar k, indem man jedes Element aik mit dem Skalar k multipliziert. kA = Ak = (k aik ) Prof. Dr. E. Larek 17.06.2009
Skalarprodukt Das Skalarprodukt aT b zweier Spaltenvektoren a und b entsteht durch paarweise Multiplikation der Elemente dieser beiden Vektoren und anschließender Addition. Prof. Dr. E. Larek 17.06.2009
Matrizenmultiplikation Zwei Matrizen A und B heißen verkettet, wenn die Spaltenzahl von A gleich der Zeilenzahl von B ist. Prof. Dr. E. Larek 17.06.2009
Matrizenmultiplikation Das Produkt C zweier verketteter Matrizen A und B besitzt die Elemente cik , die aus dem Skalarprodukt der i-ten Zeile von A mit der k-ten Spalte von B berechnet werden. Prof. Dr. E. Larek 17.06.2009
Schema von Falk Prof. Dr. E. Larek 17.06.2009
Gesetze zur Multiplikation Für die Matrizenmultiplikation gelten das Distributivgesetz (A + B)C = AC + BC A(B + C) = AB + AC und das Assoziativgesetz ABC = (AB)C = A(BC) , falls die Zwischensummen und Produkte existieren. Prof. Dr. E. Larek 17.06.2009
Eigenschaften In einer Nullmatrix 0 sind alle Elemente null. In einer Diagonalmatrix D sind alle Elemente aik = 0 für i ≠ k . Eine Einheitsmatrix E ist eine Diagonalmatrix mit aii=1 für alle i. Prof. Dr. E. Larek 17.06.2009
Orthogonale Matrix Eine orthogonale Matrix A ergibt bei Multiplikation mit der Transponierten AT die Einheitsmatrix E . AT A = A AT = E Prof. Dr. E. Larek 17.06.2009
reguläre Matrix Eine Matrix ist regulär, wenn die Determinante det(A) ≠ 0 ist. Für eine singuläre Matrix A erhält man die Determinante det(A) = 0 . Prof. Dr. E. Larek 17.06.2009
inverse Matrix Die Matrix A-1 ist inverse Matrix von A , wenn A A-1 = A-1 A = E gilt. Prof. Dr. E. Larek 17.06.2009
inverse Matrix Jede reguläre Matrix A besitzt eine eindeutig bestimmte inverse Matrix A-1 . Prof. Dr. E. Larek 17.06.2009
Linearkombination Der Vektor an ist Linearkombination der Vektoren a1 , a2 , ... , an-1 , wenn an = l1 a1 + l2 a2 + ... + ln-1 an-1 für gebildet werden kann. Prof. Dr. E. Larek 17.06.2009
konvexe Linearkombination Der Vektor an ist eine konvexe Linearkombination der Vektoren a1 , a2 , ... , an-1 , wenn an = l1 a1 + l2 a2 + ... + ln-1 an-1 für li R mit li ≥ 0 und gebildet werden kann. Prof. Dr. E. Larek 17.06.2009
lineare Abhängigkeit Die Vektoren ai mit i = 1, 2, ... , n heißen linear abhängig, wenn sich einer der Vektoren als Linearkom- bination der übrigen Vektoren darstellen lässt. Prof. Dr. E. Larek 17.06.2009
lineare Unabhängigkeit Es sind höchstens m Vektoren ai der Ordnung m voneinander linear unabhängig. Sind n Vektoren gegeben, so beschreibt der Rang r die Anzahl linear unabhängiger Vektoren. Prof. Dr. E. Larek 17.06.2009
Rang Die Matrix A hat den Rang r , wenn es eine Unterdeterminante der Ordnung r gibt, die ungleich null ist, und alle Unterdeterminanten höherer Ordnung verschwinden. Prof. Dr. E. Larek 17.06.2009
Rang Der Rang r einer Matrix A vom Typ (m, n) ist höchstens gleich der kleineren der beiden Zahlen m oder n. Prof. Dr. E. Larek 17.06.2009
Rang einer Matrix Der Rang einer Matrix A ändert sich nicht, wenn zwei Reihen miteinander vertauscht werden, die Matrix transponiert wird, eine Reihe mit einem Faktor k multipliziert wird oder das k-fache einer Reihe zu einer anderen Reihe addiert wird. Prof. Dr. E. Larek 17.06.2009