Matrix

Eine Matrix (Plural: Matrizen) ist in der linearen Algebra eine Art Tabelle von reellen Zahlen bzw. allgemeiner von Zahlen aus einem beliebigen Körper.
Diese besteht aus Zeilen und Spalten und es gibt Zeilen- und Spaltenvektoren.

Notation

Allgemein spricht man von einer $m \times n$-Matrix mit $m$ Zeilen und $n$ Spalten.
Eine Matrix gibt man im Allgemeinen mit einem Großbuchstaben an und optionalen Indizes, die die Abmessungen angeben ($A_{m,n}$). Die Indizes werden aber fast immer weggelassen. Es sollte dann natürlich klar sein, welche Abmessung die Matrix haben soll, es sei denn man betrachtet den allgemeinen Fall.
Beispiel:

(1)
\begin{align} A_{3,4} = \begin{pmatrix} 2 & 4 & 0 & 2 \cr 3 & 7 & 2 & 1 \cr 1 & 5 & 8 & 6 \cr \end{pmatrix} \end{align}

Oft kann eine Matrix allerdings auch als ein Zeilenvektor von Spaltenvektoren aufgefasst werden.

(2)
\begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1(n-1)} & a_{1n} \cr a_{21} & a_{22} & \cdots & a_{2(n-1)} & a_{2n} \cr \vdots & \vdots & \ddots & \vdots & \vdots \cr a_{m1} & a_{m2} & \cdots & a_{m(n-1)} & a_{mn}\cr \end{pmatrix} \ensuremath{\mathrel{\widehat{=}}} \begin{pmatrix} {\begin{pmatrix} a_{11} \cr a_{21} \cr \vdots \cr a_{m1} \end{pmatrix}} {\begin{pmatrix} a_{12} \cr a_{22} \cr \vdots \cr a_{m2} \end{pmatrix}} \cdots {\begin{pmatrix} a_{1n} \cr a_{2n} \cr \vdots \cr a_{mn} \end{pmatrix}} \end{pmatrix}

Eine $m\times n$-Matrix $A$ mit den Einträgen $a_{ij}$, die Elemente des Körpers $K$ sind, für $i=1,\ldots,m$ und $j=1,\ldots,n$ schreibt man oft auch verkürzt als

(3)
\begin{align} A=\begin{pmatrix}a_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots n} \end{align}

oder sogar, wenn klar ist, welche Abmessung die Matrix haben soll:

(4)
\begin{align} A=\begin{pmatrix}a_{ij}\end{pmatrix}. \end{align}

Operationen

Addition

Bei der Matrixaddition werden die Matrizen elementweise (komponentenweise) addiert. D.h. für eine Matrix

(5)
\begin{align} A=\begin{pmatrix}a_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots n} \end{align}

und eine Matrix

(6)
\begin{align} B=\begin{pmatrix}b_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots n} \end{align}

ist ihre Summe definiert durch

(7)
\begin{align} A+B=\begin{pmatrix}a_{ij}+b_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots n} \end{align}

Somit ist offensichtlich, dass nur Matrizen mit den selben Abmessungen addiert werden können.
Die Addition selbst ist kommutativ, da sie auf die Kommutativität der Addition der Elemente des Körpers zurückgeführt werden kann.

Beispiel:

(8)
\begin{pmatrix} 2 & 4 \cr 5 & 2 \cr 4 & 6 \cr \end{pmatrix} + \begin{pmatrix} 5 & 4 \cr 2 & 5 \cr 3 & 0 \cr \end{pmatrix} = \begin{pmatrix} (2+5) & (4+4) \cr (5+2) & (2+5) \cr (4+3) & (6+0) \cr \end{pmatrix} = \begin{pmatrix} 7 & 8 \cr 7 & 7 \cr 7 & 6 \cr \end{pmatrix}

Skalarmultiplikation

Bei der Skalarmultiplikation wird eine Matrix mit einem Skalar des zugrundeliegenden Körpers multipliziert. Hierbei wird jedes Element (jede Komponente) der Matrix mit diesem Skalar multipliziert. Für eine Matrix

(9)
\begin{align} A=\begin{pmatrix}a_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots n} \end{align}

und einen Skalar $k\in K$ ist die skalare Multiplikation definiert durch

(10)
\begin{align} k\cdot A=kA=\begin{pmatrix}ka_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots n} \end{align}

Auch wenn diese Multiplikation standardmäßig nur für einen Skalar von links definiert ist, ist die Tatsache,
dass ein kommutatives Vertauschen das Ergebnis nicht verändert, manchmal hilfreich.

Beispiel:

(11)
\begin{align} 3 \cdot \begin{pmatrix} -5 & 2 \cr 3 & -1 \cr 7 & 8 \cr \end{pmatrix} = \begin{pmatrix} (3\cdot (-5)) & (3\cdot 2) \cr (3\cdot 3) & (3\cdot (-1)) \cr (3\cdot 7) & (3\cdot 8) \cr \end{pmatrix} = \begin{pmatrix} -15 & 6 \cr 9 & -3 \cr 21 & 24 \cr \end{pmatrix} \end{align}

Matrixmultiplikation

Für eine $m\times n$-Matrix

(12)
\begin{align} A=\begin{pmatrix}a_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots n} \end{align}

und eine $n\times r$-Matrix

(13)
\begin{align} B=\begin{pmatrix}b_{ij}\end{pmatrix}_{i=1\ldots n,\ j=1\ldots r} \end{align}

kann man ein Matrixprodukt der beiden Matrizen definieren. Die erste Matrix muss dabei also genauso viele Spalten wie die zweite Matrix Zeilen haben. Das Matrixprodukt $C=A\cdot B=AB$ ist dann eine $m\times r$-Matrix

(14)
\begin{align} C=\begin{pmatrix}c_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots r}, \end{align}

wobei die Einträge dieser Matrix definiert sind durch:

(15)
\begin{align} c_{ij}=\sum_{k=1}^n~a_{ik}\cdot b_{kj}. \end{align}

Der Eintrag in der $i$-ten Zeile und der $j$-ten Spalte der Produktmatrix ist also, vereinfacht gesagt, das Skalarprodukt des $i$-ten Zeilenevektors der Matrix $A$ mit dem $j$-ten Spaltenvektor der Matrix $B$.
Das Matrixprodukt $B\cdot A$ ist nur für $r=m$ definiert, existiert im Allgemeinen also nicht. Wenn $r=m$ ist, dann ist $AB$ eine $m\times m$- und $BA$ eine $n\times n$-Matrix. Die Frage nach der Gültigkeit der Gleichung $AB=BA$ lässt sich also auch in diesem Fall nicht immer stellen, sondern nur für $m=n$, also für quadratische Matrizen $A$ und $B$ mit derselben Abmessung. Aber selbst in diesem Falle ist das Matrixprodukt im Allgemeinen nichtkommutativ!

Schrittweise Matrixmultiplikation

(16)
\begin{align} \left( \begin{matrix} 2 & 4 & 0 & 2 \cr 3 & 7 & 2 & 1 \cr 1 & 5 & 8 & 6 \cr \end{matrix} \right) \cdot \left( \begin{matrix} 4 & 1 \cr 0 & 2 \cr 6 & 5 \cr 2 & 3 \cr \end{matrix} \right) = \left( \begin{matrix} * & * \cr * & * \cr * & * \cr \end{matrix} \right) \end{align}
(17)
\begin{align} \left( \begin{matrix} {\color{red}\boxed{\!2 \quad 4 \quad 0 \quad 2\!}}\cr {\begin{matrix} 3 & 7 & 2 & 1 \cr 1 & 5 & 8 & 6 \cr \end{matrix}} \end{matrix} \right) \cdot \left( \begin{matrix} {\color{red}\boxed{\!\begin{matrix}4 \cr 0 \cr 6 \cr 2 \end{matrix}}} \!\!\! & {\begin{matrix} 1 \cr 2 \cr 5 \cr 3 \cr \end{matrix}} \end{matrix} \right) = \left( \begin{matrix} {\color{red}12} & * \cr * & * \cr * & * \cr \end{matrix} \right) \end{align}
(18)
\begin{align} \left( \begin{matrix} {\begin{matrix} 2 & 4 & 0 & 2 \cr \end{matrix}}\cr {\color{red}\boxed{\!3 \quad 7 \quad 2 \quad 1\!}}\cr {\begin{matrix} 1 & 5 & 8 & 6 \cr \end{matrix}} \end{matrix} \right) \cdot \left( \begin{matrix} {\color{red}\boxed{\!\begin{matrix}4 \cr 0 \cr 6 \cr 2 \end{matrix}}} \!\!\! & {\begin{matrix} 1 \cr 2 \cr 5 \cr 3 \cr \end{matrix}} \end{matrix} \right) = \left( \begin{matrix} 12 & * \cr {\color{red}26} & * \cr * & * \cr \end{matrix} \right) \end{align}
(19)
\begin{align} \left( \begin{matrix} {\begin{matrix} 2 & 4 & 0 & 2 \cr 3 & 7 & 2 & 1 \cr \end{matrix}}\cr {\color{red}\boxed{\!1 \quad 5 \quad 8 \quad 6\!}} \end{matrix} \right) \cdot \left( \begin{matrix} {\color{red}\boxed{\!\begin{matrix}4 \cr 0 \cr 6 \cr 2 \end{matrix}}} \!\!\! & {\begin{matrix} 1 \cr 2 \cr 5 \cr 3 \cr \end{matrix}} \end{matrix} \right) = \left( \begin{matrix} 12 & * \cr 26 & * \cr {\color{red}64} & * \cr \end{matrix} \right) \end{align}
(20)
\begin{align} \left( \begin{matrix} {\color{red}\boxed{\!2 \quad 4 \quad 0 \quad 2\!}}\cr {\begin{matrix} 3 & 7 & 2 & 1 \cr 1 & 5 & 8 & 6 \cr \end{matrix}} \end{matrix} \right) \cdot \left( \begin{matrix} {\begin{matrix} 4 \cr 0 \cr 6 \cr 2 \cr \end{matrix}}&\!\!\! {\color{red}\boxed{\!\begin{matrix}1 \cr 2 \cr 5 \cr 3 \end{matrix}}} \end{matrix} \right) = \left( \begin{matrix} 12 & {\color{red}16} \cr 26 & * \cr 64 & * \cr \end{matrix} \right) \end{align}
(21)
\begin{align} \left( \begin{matrix} {\begin{matrix} 2 & 4 & 0 & 2 \cr \end{matrix}}\cr {\color{red}\boxed{\!3 \quad 7 \quad 2 \quad 1\!}}\cr {\begin{matrix} 1 & 5 & 8 & 6 \cr \end{matrix}} \end{matrix} \right) \cdot \left( \begin{matrix} {\begin{matrix} 4 \cr 0 \cr 6 \cr 2 \cr \end{matrix}}&\!\!\! {\color{red}\boxed{\!\begin{matrix}1 \cr 2 \cr 5 \cr 3 \end{matrix}}} \end{matrix} \right) = \left( \begin{matrix} 12 & 16\cr 26 & {\color{red}30} \cr 64 & * \cr \end{matrix} \right) \end{align}
(22)
\begin{align} \left( \begin{matrix} {\begin{matrix} 2 & 4 & 0 & 2 \cr 3 & 7 & 2 & 1 \cr \end{matrix}}\cr {\color{red}\boxed{\!1 \quad 5 \quad 8 \quad 6\!}} \end{matrix} \right) \cdot \left( \begin{matrix} {\begin{matrix} 4 \cr 0 \cr 6 \cr 2 \cr \end{matrix}}&\!\!\! {\color{red}\boxed{\!\begin{matrix}1 \cr 2 \cr 5 \cr 3 \end{matrix}}} \end{matrix} \right) = \left( \begin{matrix} 12 & 16 \cr 26 & 30 \cr 64 & {\color{red}69} \cr \end{matrix} \right) \end{align}

Lineare Abbildungen endlich-dimensionaler Vektorräume

Mit Matrizen lassen sich viele lineare Abbildungen beschreiben. Jeder $K$-Vektorraum $V$ mit endlicher Dimension $p=\dim V$ ist isomorph zum Vektorraum $K^p$. Nun lässt sich jede lineare Abbildung $\varphi:K^m\to K^n$ durch eine $m\times n$-Matrix $A$ beschreiben. Ist nämlich

(23)
\begin{align} e_i=(0\quad\cdots\underbrace{1}_{i\text{-te Stelle}}\cdots\quad 0)^T =\begin{pmatrix}0 \\ \vdots \\ 1 \\ \vdots \\ 0\end{pmatrix} \end{align}

der $i$-te Einheitsvektor des $K^m$, so bildet $B=\{e_1,\ldots,e_m\}$ eine Basis von $K^m$ und mit der Matrix

(24)
\begin{align} A=\begin{pmatrix}\varphi(e_1) & \cdots & \varphi(e_m)\end{pmatrix} \end{align}

(das ist ein Zeilenvektor aus Spaltenvektoren) gilt dann für jedes $x\in K^m\ :\quad \varphi(x)=Ax$.
Umgekehrt ist für jede $m\times n$-Matrix $A$ die Abbildung $\varphi:K^m\to K^n$, definiert durch $\varphi(x)=Ax$, immer eine lineare Abbildung.

Vektorräume von Matrizen

Für einen beliebigen Körper $K$ bezeichnen wir die Menge aller $m\times n$-Matrizen, die Elemente von $K$ als Einträge besitzen, mit $K^{m\times n}$. Mit der oben definierten Addition und mit der Skalarmultiplikation mit Elementen des Körpers $K$ bildet die Menge $K^{m\times n}$, wie man sich leicht überlegen kann, einen Vektorraum der Dimension $m\cdot n$. Dies kommt auch besonders gut zum Vorschein, wenn man sich vor Augen hält, dass dieser Vektorraum isomorph zum Vektorraum $K^{mn}$ ist. Definiert man nämlich die Abbildung $\varphi:K^{m\times n}\to K^{mn}$ durch

(25)
\begin{align} \begin{pmatrix} a_{11} & \cdots & a_{1n} \cr \vdots & \ddots & \vdots \cr a_{m1} & \cdots & a_{mn} \end{pmatrix} \mapsto \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n} & \cdots & a_{2n} & \cdots & a_{m1} & \cdots & a_{mn} \end{pmatrix}^T, \end{align}

so ist $\varphi$ eine bijektive lineare Abbildung.

Rechenregeln für Matrizen

Wie sich aus dem letzten Abschnitt ergibt, gelten für alle $m\times n$-Matrizen $A,B,C$ sowie für alle $k,l\in K$ folgende Regeln:

(26)
\begin{align} (A+B)+C&=A+(B+C)\cr A+B&=B+A\cr k\cdot (A+B)&=k\cdot A+k\cdot B\cr (k+l)\cdot A&=k\cdot A+l\cdot A\cr (kl)\cdot A&=k\cdot (l\cdot A)\cr 1\cdot A&=A. \end{align}

Außerdem gilt für die Nullmatrix

(27)
\begin{align} (0)=(0)_{i=1\ldots m,j=1\ldots n}=\begin{pmatrix} 0 & \cdots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \cdots & 0 \end{pmatrix}, \end{align}

die nur aus Nullen besteht, für alle $A\in K^{m\times n}$:

(28)
\begin{equation} A+0=0+A=A. \end{equation}

(Man schreibt für die Nullmatrix anstelle von $(0)$ oft auch einfach $0$.)
Jede Matrix $A=(a_{ij})\in K^{m\times n}$ besitzt außerdem ein additives Inverses $-A=(-a_{ij})\in K^{m\times n}$. Es gilt dann:

(29)
\begin{equation} A+(-A)=0. \end{equation}

Des Weiteren gibt es noch Rechenregeln für die Matrixmultiplikation:
Für alle $A\in K^{m\times n},B\in K^{n\times r},C\in K^{r\times s}$ gilt

(30)
\begin{equation} A(BC)=(AB)C. \end{equation}

Außerdem haben wir für alle $A\in K^{m\times n},B,C\in K^{n\times r}$

(31)
\begin{equation} A(B+C)=AB+AC \end{equation}

sowie für alle $A,B\in K^{m\times n},C\in K^{n\times r}$

(32)
\begin{equation} (A+B)C=AC+BC. \end{equation}

Die Matrixmultiplikation ist jedoch im Allgemeinen nichtkommutativ! (siehe dem Abschnitt "Matrixmultiplikation")

Für quadratische Matrizen gibt es noch eine sogenannte Einheitsmatrix. Das ist das neutrale Element der Matrixmultiplikation. Für den Raum aller quadratischen Matrizen aus $K^{n\times n}$ besteht die sogenannte $n$-te Einheitsmatrix auf der Hauptdiagonalen stets aus Einsen und sonst nur aus Nullen:

(33)
\begin{align} E_n=\begin{pmatrix} 1 & 0 & \cdots & 0 \\ 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & 1\end{pmatrix}. \end{align}

Wenn klar ist, welche Abmessung die Matrix haben soll, schreibt man auch einfach $E$. Für alle $A\in K^{n\times n}$ gilt also:

(34)
\begin{equation} AE=EA=A. \end{equation}

Aus diesen Rechenregeln folgt:
Die Menge der $m\times n$-Matrizen bildet zusammen mit der Maxtrixaddition und der Matrixmultiplikation einen Ring und im Fall der quadratischen Matrizen sogar einen unitären Ring (d.h. einen Ring mit Einselement).

Die Inverse einer quadratischen Matrix

Für eine quadratische $n\times n$ Matrix $A$ kann man die Frage stellen, ob es eine zu ihr inverse Matrix gibt.
Für die Matrix $A$ ist ihre Inverse $A^{-1}$, falls existent, definiert durch die Gleichung

(35)
\begin{equation} AA^{-1}=A^{-1}A=E_n. \end{equation}

Existiert eine Inverse zu einer Matrix, so ist sie eindeutig bestimmt. Man nennt die Matrix $A$ dann auch invertierbar oder regulär. Allerdings existiert nicht zu jeder Matrix eine Inverse. Es gibt sogar Matrizen, die nicht die Nullmatrix sind, und trotzdem keine Inverse besitzen.
Ist $A^{-1}$ die Inverse zu $A$, so folgt direkt aus der Definition, dass $A$ die Inverse zu $A^{-1}$ ist. Es gilt also: $(A^{-1})^{-1}=A$.
Besitzen die beiden quadratischen Matrizen $A$ und $B$ derselben Abmessung jeweils eine Inverse, so besitzt auch ihr Produkt $AB$ eine Inverse, nämlich die Matrix

(36)
\begin{equation} (AB)^{-1}=B^{-1}A^{-1}. \end{equation}

Wegen der Nichtkommutativität der Matrixmultiplikation ist es wichtig, dass man auf der rechten Seite $B^{-1}A^{-1}$ und nicht $A^{-1}B^{-1}$ schreibt.

Die Transponierte einer Matrix

Für eine Matrix $A=\begin{pmatrix}a_{ij}\end{pmatrix}_{i=1\ldots m,\ j=1\ldots n}$ ist ihre transponierte Matrix $A^T$ definiert durch

(37)
\begin{align} A^T=\begin{pmatrix}b_{ij}\end{pmatrix}_{i=1\ldots n,\ j=1\ldots m}, \end{align}

wobei

(38)
\begin{equation} b_{ij}=a_{ji} \end{equation}

ist. Die $i$-te Spalte der Matrix $A^T$ ist also die $i$-te Zeile der Matrix $A$. Man spiegelt also die Elemente von $A$ an ihrer "Hauptdiagonalen" und erhält dann die transponierte Matrix.
Ist das Matrixprodukt $AB$ definiert (d.h. hat $A$ genauso viele Spalten wie $B$ Zeilen), dann ist auch das Produkt $B^TA^T$ definiert. Durch einfaches Ausrechnen und Vergleichen sieht man, dass die Gleichung

(39)
\begin{equation} (AB)^T=B^TA^T \end{equation}

gilt. Des Weiteren gelten folgende Rechenregeln:

(40)
\begin{align} &\forall A,B\in K^{m\times n}& &: &(A+B)^T&=A^T+B^T \cr &\forall A\in K^{m\times n}\quad \forall k\in\mathh K& &: &(kA)^T&=kA^T\cr &\forall A\in K^{m\times n}& &: &(A^T)^T&=A \end{align}

Ist die quadratische Matrix $A$ invertierbar, so besitzt auch ihre Transponierte $A^T$ eine Inverse $(A^T)^{-1}$ und es gilt:

(41)
\begin{equation} (A^T)^{-1}=(A^{-1})^T. \end{equation}

Eine Matrix $A$ heißt symmetrisch, falls $A^T=A$, und antisymmetrisch (oder auch schiefsymmetrisch), falls $A^T=-A$ gilt. Nur quadratische Matrizen können symmetrisch oder antisymmetrisch sein.

Verbindung zu Bilinearformen

Jede Matrix $A\in K^{m\times n}$ beschreibt eine Bilinearform $\langle\cdot,\cdot\rangle : K^m\times K^n\to K$, wenn man

(42)
\begin{align} \langle u,v\rangle=u^TAv \end{align}

für $u\in K^m,v\in K^n$ definiert.
Umgekehrt gibt es zu jeder Bilinearform $\langle\cdot,\cdot\rangle :K^m\times K^n\to K$ eine Matrix $A\in K^{m\times n}$, sodass gilt:

(43)
\begin{align} \langle u,v\rangle=u^TAv. \end{align}

Diese Matrix ist sogar eindeutig bestimmt. Für $A=(a_{ij})_{i=1\ldots m,j=1\ldots n}$ gilt

(44)
\begin{align} a_{ij}=\langle e_i,e_j\rangle, \end{align}

wobei

(45)
\begin{align} e_i=(0\quad\cdots\underbrace{1}_{i\text{-te Stelle}}\cdots\quad 0)^T =\begin{pmatrix}0 \\ \vdots \\ 1 \\ \vdots \\ 0\end{pmatrix}\in K^m \end{align}

der $i$-te Einheitsvektor des $K^m$ und

(46)
\begin{align} e_j=(0\quad\cdots\underbrace{1}_{j\text{-te Stelle}}\cdots\quad 0)^T =\begin{pmatrix}0 \\ \vdots \\ 1 \\ \vdots \\ 0\end{pmatrix}\in K^n \end{align}

der $j$-te Einheitsvektor des $K^n$ ist.

Diese Bilinearform (die in (40) definierte) ist genau dann symmetrisch bzw. antisymmetrisch, wenn die Matrix $A$ symmetrisch bzw. antisymmetrisch ist.

Man nennt eine reelle quadratische $n\times n$ Matrix positiv definit, wenn für alle $v\in\mathbb R^n\setminus\{0\}$ gilt:

(47)
\begin{equation} v^TAv>0. \end{equation}

Die zugehörige Bilinearform für den Fall (dort ist dann $K=\mathbb R$) ist somit genau dann positiv definit, wenn $A$ positiv definit ist.
Insgesamt lässt sich sagen:
Die oben definierte Bilinearform ist (für $K=\mathbb R$) genau dann ein (allgemeines) Skalarprodukt, wenn die Matrix $A$ symmetrisch und positiv definit ist (was nur im Falle einer quadratischen Matrix möglich ist).

Orthogonale Matrizen

Eine reelle quadratische $n\times n$-Matrix $A$ heißt orthogonal, wenn

(48)
\begin{equation} A^T=A^{-1} \end{equation}

ist. Folgende Aussagen sind dazu äquivalent:

a) Für das Standard-Skalarprodukt im $\mathbb R^n$ für alle $x,y\in\mathbb R^n$ gilt:

(49)
\begin{align} \langle Ax,Ay\rangle=\langle x,y\rangle. \end{align}

b) Die Länge jeden Vektors $x\in\mathbb R^n$ verändert sich bei Multiplikation mit $A$ nicht, d.h.:

(50)
\begin{align} |Ax|=|x|\quad \text{bzw.}\quad \langle Ax,Ax\rangle=\langle x,x\rangle. \end{align}

c) Die Zeilen von $A$ bilden eine Orthonomalbasis des $\mathbb R^n$, d.h.:
1. Sie sind eine Basis des $\mathbb R^n$.
2. Je zwei der (aus den Zeilen gebildeten) Vektoren stehen senkrecht aufeinander.
3. Alle Vektoren der Basis sind normiert, d.h. die haben die Länge $1$.

d) Die Spalten von $A$ bilden eine Orthonomalbasis des $\mathbb R^n$, d.h.:
1. Sie sind eine Basis des $\mathbb R^n$.
2. Je zwei der (aus den Spalten gebildeten) Vektoren stehen senkrecht aufeinander.
3. Alle Vektoren der Basis sind normiert, d.h. die haben die Länge $1$.

Aus der Äquivalenz von c) und d) ergibt sich, dass mit $A$ auch $A^T$ orthogonal sein muss.
Multipliziert man eine orthogonale Matrix $A$ mit einem Vektor $x$, so ist das Ergebnis ein Vektor, der aus $x$ geometrisch durch Drehung oder Spiegelung hervorgeht. Außerdem erhält man eine Orthonormalbasis des $\mathbb R^n$, indem man die Standardbasis mit einer orthogonalen Matrix mutlipliziert. Umgekehrt kann so sogar jede Orthonormalbasis erzeugt werden.

Dreiecksmatrizen

Eine obere Dreiecksmatrix ist eine quadratische Matrix, bei der alle Einträge unterhalb der Hauptdiagonalen Null sind. DIe $n\times n$-Matrix $A=(a_{ij})$ heißt also obere Dreiecksmatrix, falls $a_{ij}=0$ für $i>j$ gilt. Eine solche Dreiecksmatrix ist genau dann invertierbar, wenn alle ihre Hauptdiagonalelemente ungleich Null sind. Die Menge aller invertierbaren oberen Dreiecksmatrizen bilden bzgl. der Matrixmultiplikation eine Gruppe. D.h. insbesondere, dass das Produkt zweier invertierbarer oberer Dreiecksmatrizen wieder eine solche ist. Selbiges gilt für die Inverse einer invertierbaren oberen Dreiecksmatrix. Die Determinante einer oberen Dreiecksmatrix ist das Produkt ihrer Hauptdiagonalelemente.
Dies alles gilt natürlich analog für die unteren Dreiecksmatrizen.

Diagonalmatrizen

Diagonalmatrizen sind Matrizen, die gleichzeitig obere und untere Dreiecksmatrix sind. Alle Einträge außerhalb der Hauptdiagonalen sind also Null. Auch die Menge aller invertierbaren Diagonalmatrizen bildet mit der Matrixmultiplikation eine Gruppe. Außerdem gelten die entsprechenden Aussagen, die auch bei den Dreiecksmatrizen gelten.

Elementarmatrizen

Elementarmatrizen sind Matrizen, die beim Lösen von Gleichungssystemen der Form $Ax=b$ wichtig sind. Sie übertragen die elementaren Äquivalenzumformungen des Gauß-Algorithmus eines solchen Gleichungssystems auf die Matrix $A$. Es gibt drei Typen von Elementarmatrizen:

1. Typ: Hierzu gehören Matrizen, die in der Hauptdiagonalen nur aus Einsen bestehen und sonst aus Nullen, bis auf eine einzige Stelle außerhalb der Hauptdiagonalen. Ist diese Stelle auch Null, so hat man die Einheitsmatrix, die auch zu diesem Typ gezählt wird. Diese Matrizen haben also die Form

(51)
\begin{pmatrix} 1 & 0 & 0 & \cdots & 0 \\ 0 & 1 & 0 & a_{ij} & 0 \\ 0 & 0 & 1 & \cdots & 0 \\ \vdots & \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & 0 & \cdots & 1 \end{pmatrix}

mit $i\neq j$.

2. Typ: Dies sind Matrizen, die aus der Einheitsmatrix hervorgehen, indem man zwei ihrer Zeilen (oder Spalten) vertauscht. Sie sehen folgendermaßen aus:

(52)
\begin{pmatrix} 1 & & & & & & \\ & \ddots & & & & & \\ & & 0 & & 1 & & \\ & & & \ddots & & & \\ & & 1 & & 0 & & \\ & & & & & \ddots & \\ & & & & & & 1 \end{pmatrix}

3. Typ: Matrizen dieses Typs entstehen aus der Einheitsmatrix, indem man eine $1$ ihrer Hauptdiagonalen durch eine Zahl $\neq 0$ ersetzt:

(53)
\begin{pmatrix} 1 & & & & \\ & \ddots & & & \\ & & a_{ii} & & \\ & & & \ddots & \\ & & & & 1 \end{pmatrix}

mit $a_{ii}\neq 0$.

Jede Elementarmatrix ist invertierbar und ihre Inverse ist eine Elementarmatrix vom gleichen Typ.

Wirkung der Elementarmatrizen:
Multipliziert man eine Elementarmatrix des Typs 1 mit einer Matrix $A$ von links, so wird das $a_{ij}$-fache der $j$-ten Zeile von $A$ zur ihrer $i$-Zeile addiert. Die $j$-te und alle anderen Zeilen bleiben bestehen.
Multipliziert man eine Elementarmatrix des Typs 2 mit einer Matrix $A$ von links, so werden die $i$-te und die $j$-te Zeile vertauscht.
Multipliziert man eine Elementarmatrix des Typs 3 mit einer Matrix $A$ von links, so wird die $i$-te Zeile von $A$ mit $a_{ij}$ multipliziert.

Jeder dieser Schritte ist wegen der Invertierbarkeit der Elementarmatrizen umkehrbar. Außerdem sind dies genau die Schritte des Gauß-Algorithmus, wenn man für $A$ die erweitete Koeffizientenmatrix eines Gleichungssystems einsetzt. Man hat also eine Möglichkeit, ein Gleichungssystem durch Multiplikation mit Elementarmatrizen zu lösen.
Auch lässt sich mithilfe der Multiplikation der Elementarmatrizen die Inverse einer invertierbaren Matrix finden, da man sie dadurch auf die Einheitsmatrix bringen kann. Multipliziert man die Einheitsmatrix in der gleichen Reihenfolge mit denselben Elementarmatrizen, so erhält man dann die Inverse der Matrix.

Rang einer Matrix

Determinante einer Matrix

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-Share Alike 2.5 License.