Nicci-Stoff

Hallo liebe M*-Kursler. *wink*
Da ich bei Niccis Unterricht am Mittwoch der Meinung war, dass man ein paar Sachen etwas schöner hätte machen können, möchte ich einfach mal ne andere Variante vorstellen von dem, was er gemacht hat. Kann auch sein, dass euch danach das von Nicci besser gefällt. Entscheidet selbst. ;)
So genau weiß ich auch nicht mehr, wie Nicci das alles gemacht hat, aber ich bin der Meinung, dass folgende Sachen zumindest teilweise anders sind. Beim dritten Satz hat Nicci ja mit seinem komischen Algorithmus argumentiert, da ist der folgende Beweis auf jeden Fall anders …

Im Prinzip sind es die Beweise zu den drei Sätzen, die ich nochmal machen werde (in den ersten beiden Sätzen sei $A$ eine $m\times n$-Matrix!):

Satz 1: Ein lineares GLS $Ax=b$ ist genau dann lösbar, falls der Rang der Matrix $A$ gleich dem Rang der erweiterten Matrix $(A,b)$ ist, d.h. $\operatorname{rg}A=\operatorname{rg}(A,b)$.

Beweis: Es sei

(1)
\begin{align} A=\begin{pmatrix}a_{11} & \cdots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & \cdots & a_{mn}\end{pmatrix} \qquad\text{ und }\qquad x=\begin{pmatrix}x_1 \\ \vdots \\ x_n \end{pmatrix}. \end{align}

Dann gilt:

(2)
\begin{align} Ax&=\begin{pmatrix}a_{11} & \cdots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{m1} & \cdots & a_{mn}\end{pmatrix}\cdot \begin{pmatrix}x_1 \\ \vdots \\ x_n \end{pmatrix}=\begin{pmatrix}a_{11}x_1+\ldots+a_{1n}x_n \\ \vdots \\ a_{m1}x_1+\ldots+a_{mn}x_n\end{pmatrix}\cr \cr &=\begin{pmatrix}a_{11}x_1 \\ \vdots \\ a_{m1}x_1\end{pmatrix}+\ldots+\begin{pmatrix}a_{1n}x_n \\ \vdots \\ a_{mn}x_n\end{pmatrix}=x_1\begin{pmatrix}a_{11} \\ \vdots \\ a_{1n}\end{pmatrix}+\ldots+x_n\begin{pmatrix}a_{m1} \\ \vdots \\ a_{mn}\end{pmatrix}. \end{align}

$"\Rightarrow"$: Angenommen, das GLS ist lösbar. Dann existiert also ein Vektor

(3)
\begin{align} x=\begin{pmatrix}x_1 \\ \vdots \\ x_n \end{pmatrix}, \end{align}

sodass gilt:

(4)
\begin{align} Ax\stackrel{(2)}{=}x_1\begin{pmatrix}a_{11} \\ \vdots \\ a_{1n}\end{pmatrix}+\ldots+x_n\begin{pmatrix}a_{m1} \\ \vdots \\ a_{mn}\end{pmatrix}=b. \end{align}

Da auf der linken Seite gerade eine Linearkombination der Spalten von $A$ steht, ist dann der Vektor $b$ linear abhängig von ebendiesen. Damit verändert sich die maximale Anzahl der linear unabhängigen Spalten von $A$ nicht, wenn man den Spaltenvektor $b$ noch hinzufügt. Also gilt: $\operatorname{rg}A=\operatorname{rg}(A,b)$.
$"\Leftarrow"$: Die andere Richtung ist prinzipiell nur die Umkehrung der Hinrichtung. Wenn die beiden Ränge gleich sind, muss $b$ sich als Linearkombination der Spalten von $A$ ergeben, da sonst die Spalten von $A$ und $b$ linear unabhängig wären. Es gibt also wieder einen Vektor

(5)
\begin{align} x=\begin{pmatrix}x_1 \\ \vdots \\ x_n \end{pmatrix}, \end{align}

sodass gilt:

(6)
\begin{align} x_1\begin{pmatrix}a_{11} \\ \vdots \\ a_{1n}\end{pmatrix}+\ldots+x_n\begin{pmatrix}a_{m1} \\ \vdots \\ a_{mn}\end{pmatrix}=b. \end{align}

Daraus folgt aber wegen (2) $Ax=b$ und damit existiert eine Lösung des linearen GLS, nämlich dieses $x$.$\Box$

Satz 2: Ein lineares GLS $Ax=b$ ist genau dann eindeutig lösbar, falls der Rang der Matrix $A$ gleich der Anzahl der Spalten von $A$ (diese ist genauso groß wie die Anzahl der Variablen) ist und es nicht weniger Zeilen als Spalten gibt, d.h. $\operatorname{rg}A=n$ und $n\leq m$.

Bemerkung: Wenn es weniger Zeilen (Anzahl $m$) als Spalten (Anzahl $n$) gibt, dann hat man weniger Gleichungen ($m$ Stück) als Variablen ($n$ Stück) und dann sind auf jeden Fall mindestens $n-m$ Variablen frei wählbar. Eine eindeutige Lösung kann es also dann nicht geben.

Beweis: Es gilt:
$Ax=b$ ist eindeutig lösbar

$\Longleftrightarrow$

es gibt genau einen Vektor

(7)
\begin{align} x=\begin{pmatrix}x_1 \\ \vdots \\ x_n \end{pmatrix}, \end{align}

sodass gilt:

(8)
\begin{align} x_1\begin{pmatrix}a_{11} \\ \vdots \\ a_{1n}\end{pmatrix}+\ldots+x_n\begin{pmatrix}a_{m1} \\ \vdots \\ a_{mn}\end{pmatrix}=Ax=b. \end{align}

$\Longleftrightarrow$

Die $n$ Spaltenvektoren

(9)
\begin{pmatrix} a_{11} \\ \vdots \\ a_{m1} \end{pmatrix}, \ldots,\begin{pmatrix} a_{1n} \\ \vdots \\ a_{mn} \end{pmatrix}

des $\mathbb R^m$ sind linear unabhängig. (Für die Hinrichtung zu dieser Aussage setzt man $b=0$ (dann muss die triviale Linearkombination die einzige sein). Bei der Rückrichtung gilt: Ist $b$ eine Linearkombination von linear unabhängigen Vektoren, so ist die Darstellung von $b$ durch diese Vektoren immer eindeutig.)

$\Longleftrightarrow$

$\operatorname{rg}A=n$ (man hat ja $n$ linear unabhängige Spaltenvektoren) und da mehr als $m$ Vektoren im $\mathbb R^m$ immer linear unabhängig sind, muss $n\leq m$ gelten. Die Rückrichtung von dieser zur letzten Aussage ist offensichtlich. $\Box$

Aus diesem Satz folgt folgender Spezialfall, wenn man $m=n$ setzt:

Korollar: Das lineare GLS $Ax=b$ ist für eine quadratische $n\times n$-Matrix $A$ genau dann eindeutig lösbar, wenn $\operatorname{rg}A=n$, d.h. $A$ regulär ist.

Satz 3: Die quadratische $n\times n$-Matrix $A$ ist genau dann regulär (d.h. $\operatorname{rg}A=n$), wenn sie invertierbar ist.

Beweis: $"\Leftarrow"$: Ist $A$ invertierbar, so gilt:

(10)
\begin{align} Ax=b\quad\Leftrightarrow\quad x=A^{-1}b. \end{align}

Das GLS ist also eindeutig lösbar. Damit ist wegen des Korollars $A$ regulär, also ist die Rückrichtung bereits bewiesen.
$"\Rightarrow"$: Sei also $A$ regulär. Wir definieren für $1\leq k\leq n$:

(11)
\begin{align} x_k=\begin{pmatrix} x_{1k} \\ \vdots \\ x_{nk}\end{pmatrix}. \end{align}

Außerdem sei $e_k$ der $k$-te Einheitsvektor des $\mathbb R^n$. Dann besitzen alle Gleichungen $Ax_k=e_k$ genau eine Lösung für $x_k$. Für

(12)
\begin{align} X=\begin{pmatrix} x_1 & \cdots & x_n \end{pmatrix}=\begin{pmatrix} x_{11} & \cdots & x_{1n} \\ \vdots & \ddots & \vdots \\ x_{n1} & \cdots & x_{nn}\end{pmatrix} \end{align}

und

(13)
\begin{align} E=\begin{pmatrix} e_1 & \cdots & e_n \end{pmatrix}=\begin{pmatrix} 1 & \cdots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \cdots & 1\end{pmatrix} \end{align}

gilt dann:

(14)
\begin{align} AX=A\begin{pmatrix} x_1 & \cdots & x_n \end{pmatrix}=\begin{pmatrix} Ax_1 & \cdots & Ax_n \end{pmatrix}=\begin{pmatrix} e_1 & \cdots & e_n \end{pmatrix}=E. \end{align}

Damit ist dieses $X$ eine Rechtsinverse von $A$.
Da $A$ regulär ist, ist auch $A^T$ regulär. Entsprechend zu dem eben vollzogenen Verfahren gibt es also auch eine Rechtsinverse $Y$ von $A^T$, d.h.:

(15)
\begin{equation} A^TY=E. \end{equation}

Daraus folgt nun:

(16)
\begin{align} Y^TA=Y^T(A^T)^T=(A^TY)^T\stackrel{(15)}{=}E^T=E. \end{align}

Und nun erhält man

(17)
\begin{align} XA=(EX)A\stackrel{(16)}{=}((Y^TA)X)A=(Y^T(AX))A\stackrel{(14)}{=}(Y^TE)A=Y^TA\stackrel{(15)}{=}E. \end{align}

Also ist $X$ auch eine Linksinverse und damit insgesamt eine Inverse von $A$, d.h. $A$ ist invertierbar! $\Box$

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-Share Alike 2.5 License.