HA-Lösungen für Mara

Bei der ersten Aufgabe warste ja noch da … also fang ich mal mit der zweiten an. ;)
Wenn du dann noch Fragen zu den Lösungen hast, kannste mich ja nochmal fragen. ;)

Aufgabe 2

  • Lesen sie den Artikel zu Bilinearformen.
  • Beweisen Sie die Äquivalenz der beiden Definitionen für die Antisymmetrie:
(1)
\begin{align} \forall v,w \in V : \langle v,w\rangle = -\langle w,v\rangle \qquad \Leftrightarrow \qquad \forall v \in V : \langle v,v\rangle = 0 \end{align}

(Tipp: verwenden Sie hierzu eine Eigenschaft der Linearität, um die Bilinearform zu zerlegen)

Lösung

Dima hat ja angefangen und es folgendermaßen versucht (keine Ahnung, ob du da noch da warst?!):

(2)
\begin{align} \langle v,w\rangle=\langle v,0\rangle+\langle 0,w\rangle. \end{align}

Wir haben ihn ja dann korrigiert. Das gilt eben nicht, weil man nicht beide Argumente gleichzeitig linear zerlegen kann, sondern immer nur eines und danach evtl. das andere. Richtig ist also für alle $a,b,x,y\in V$:

(3)
\begin{align} \langle a+b,x+y\rangle & = & \langle a+b,x\rangle & + \langle a+b,y\rangle &\cr & = & \langle a,x\rangle+\langle b,x\rangle & + \langle a,y\rangle+\langle b,y\rangle &. \end{align}

Dann hat Schmiddy die Aufgabe übernommen. Bei der Hinrichtung hatten wir dann letztendlich folgende Lösung: Man setzt einfach $w=v$ ein und erhält:

(4)
\begin{align} \langle v,v\rangle=-\langle v,v\rangle\qquad \Rightarrow \qquad 2\langle v,v\rangle=0 \qquad \Rightarrow \qquad \langle v,v\rangle=0. \end{align}

Schmiddy hat dann die Rückrichtung folgendermaßen gemacht: Es gelte $\langle v,v\rangle=0$ für alle $v\in V$. Sei $w\in V$ beliebig. Dann gilt:

(5)
\begin{align} \langle v,v\rangle=0\qquad \Rightarrow \qquad \langle (v-w)+w,(v-w)+w\rangle=0. \end{align}

Jetzt hat er das Ganze mit der Regel von oben mit $a=v-w,b=w,x=v-w,d=w$ aufgelöst zu:

(6)
\begin{align} \Rightarrow\qquad \langle v-w,v-w\rangle+\langle w,v-w\rangle+\langle v-w,w\rangle+\langle w,w\rangle=0. \end{align}

Der erste und der letzte Term sind beide $0$ (nach Voraussetzung!) und dann erhält er:

(7)
\begin{align} \langle w,v-w\rangle+\langle v-w,w\rangle=0 \qquad \Rightarrow \qquad \langle w,v-w\rangle=-\langle v-w,w\rangle. \end{align}

Und wenn das für alle $v,w$ gilt, dann gilt auch für alle $v,w$: $\langle w,v\rangle=-\langle v,w\rangle$, weil man sich das ja dann entsprechend wählen kann. Sollte an sich klar sein, kann ich nur schlecht erklären *gg*. Man könnte auch einfach noch weitermachen:

(8)
\begin{align} &\langle w,v-w\rangle=-\langle v-w,w\rangle \qquad \Rightarrow \qquad \langle w,v\rangle+\langle w,-w\rangle=-\Big(\langle v,w\rangle+\langle -w,w\rangle\Big)\cr &\Rightarrow \qquad \langle w,v\rangle-\langle w,w\rangle=-\Big(\langle v,w\rangle-\langle w,w\rangle\Big)\qquad \Rightarrow \qquad \langle w,v\rangle=-\langle v,w\rangle, \end{align}

weil $\langle w,w\rangle=0$ ja für alle $w\in V$ gilt.

Ein vielleicht etwas kürzerer Weg ist evtl. folgender (so hab ichs gemacht): Für alle $v,w\in V$ gilt:

(9)
\begin{align} & \langle v+w,v+w\rangle=0\qquad \Rightarrow \qquad \langle v,v+w\rangle+\langle w,v+w\rangle=0\qquad \cr \cr & \Rightarrow\qquad \underbrace{\langle v,v\rangle}_0+\langle v,w\rangle+\langle w,v\rangle+\underbrace{\langle w,w\rangle}_0=0\qquad \cr & \Rightarrow \qquad \langle v,w\rangle+\langle w,v\rangle=0\qquad \Rightarrow \qquad \langle v,w\rangle=-\langle w,v\rangle. \end{align}

Aufgabe 3

In Aufgabe 3 und 4 seien die angegebenen Matrizen durchgehend quadratische $n\times n$-Matrizen.

Wenn $A^T$ die transponierte Matrix zu $A$ (also die an der Hauptdiagonalen gespiegelte)
und $B^T$ die transponierte Matrix zu $B$ ist, so gilt allgemein: $\left(A\cdot B\right)^T=\left(B^T\cdot A^T\right)$.

  • Zeigen Sie in diesem Zusammenhang:
(10)
\begin{align} \forall x,y \in \mathbb R^n : \quad x^T A y = y^T A x \qquad \Leftrightarrow \qquad A^T = A. \end{align}

Damit wäre der Zusammenhang zwischen einer symmetrischen Matrix und einer durch sie definierten symmetrischen Bilinearform klar.

Lösung

Ok, da haben Justus und Andrej gleich am Anfang gesagt, dass ihrer Meinung nach auf der linken Seite folgendes hätte stehen müssen:

(11)
\begin{equation} (x^T A y)^T = y^T A x. \end{equation}

Dann haben Thomas und ich erklärt, dass wenn das gilt, auch folgt, dass $x^T A y = y^T A x$ gilt.
Denn: $x$ und $y$ sind Vektoren des $\mathbb R^n$ und $A$ ist eine $n\times n$-Matrix. Dann ist $y^T$ ein Zeilenvektor der Länge $n$, also kwasi eine Matrix, die die Form $1\times n$ hat. Wenn wir die mit der $n\times n$-Matrix multiplizieren, kommt danach wieder ein Zeilenvektor, also eine $1\times n$-Matrix raus. Wenn man dieses Ergebnis jetzt noch mit dem Spaltenvektor $x$ multipliziert, dann multipliziert man es ja kwasi mit einer $n\times 1$-Matrix. Und das Ergebnis aus dem Produkt einer $1\times n$-Matrix mit einer $n\times 1$-Matrix ist eine $1\times 1$-Matrix, also kwasi eine Matrix mit nur einem Eintrag. (Das ganze lässt sich natürlich besser erklären, wenn man nebeneinander sitzt und direkt erklären kann :)) Nennen wir diesen einen Eintrag mal $c$. Dann gilt also:

(12)
\begin{align} x^TAy=\begin{pmatrix} c\end{pmatrix}. \end{align}

Und diese Matrix mit dem einen Eintrag $b$ ist natürlich symmetrisch. D.h. wenn ich sie transponiere, kommt wieder die gleiche Matrix raus: $\begin{pmatrix} c\end{pmatrix}^T=\begin{pmatrix} c\end{pmatrix}$. Also gilt:

(13)
\begin{align} (x^TAy)^T=\begin{pmatrix} c\end{pmatrix}^T=\begin{pmatrix} c\end{pmatrix}=x^TAy. \end{align}

Und wenn das ganz linke jetzt $=y^TAx$ ist, dann auch das, was ganz rechts steht, also:

(14)
\begin{equation} x^TAy=y^TAx. \end{equation}

So, das war jetzt nur so als Vorbemerkung. ;) Zur eigentlichen Aufgabe: Die Rückrichtung hat Justus gemacht:
Angenommen, es gilt $A^T=A$. Jetzt benutzen wir wieder $x^TAy=\begin{pmatrix} c\end{pmatrix}=\begin{pmatrix} c\end{pmatrix}^T=(x^TAy)^T$ und vor allem $(AB)^T=B^TA^T$. Dann folgt nämlich:

(15)
\begin{align} x^TAy=\begin{pmatrix} c\end{pmatrix}=\begin{pmatrix} c\end{pmatrix}^T=(x^TAy)^T=(x^T(Ay))^T=(Ay)^T(x^T)^T=(Ay)^Tx=y^TA^Tx. \end{align}

Und wegen $A^T=A$ ist letzteres $=y^TAx$.

Bei der anderen Richtung haben Meppel und Philipp dann etwas konfus einfach reinge"rufen", dass die ja direkt daraus folgt. Nachdem ich dann endlich verstanden hatte, was sie meinten (:D), hab ichs mal für alle angeschrieben …
Also, angenommen, es gilt für alle $x,y\in\mathbb R^n$ die Gleichung

(16)
\begin{align} x^TAy=y^TAx\qquad (1). \end{align}

Dann folgt wie eben (beachte wieder $(AB)^T=B^TA^T$):

(17)
\begin{align} x^TAy\stackrel{(1)}{=}y^TAx=\begin{pmatrix} c\end{pmatrix}=\begin{pmatrix} c\end{pmatrix}^T=(y^TAx)^T=x^TA^Ty. \end{align}

Und dann war Meppels und Philipps Argument: Wir haben jetzt gezeigt, dass für alle $x,y\in\mathbb R^n$ gilt:

(18)
\begin{equation} x^TAy=x^TA^Ty. \end{equation}

Dann muss auch $A^T=A$ sein. Hab ich die Frage gestellt: "Warum? Wie folgert ihr das so einfach? ;)" … Hat Meppel gesagt: "Hmmm … naja, ich kann ja mit den Inversen [von $x$ und $y^T$] multiplizieren." Und Thomas dann:" Ne, geht nicht, weil ein Zeilen- bzw. Spaltenvektor keine Inversen besitzen. Inverse gibts ja nur für quadratische Matrizen." Ganz so einfach ging das also nicht.
Die Frage war ja dann kwasi, ob aus $x^TAy=x^TBy$ für alle $x,y\in\mathbb R^n$ folgt, dass $A=B$ sein muss, ob also diese Bilinearform ihre Matrix eindeutig bestimmt oder ob zwei Matrizen die gleiche Bilinearform (dieser Form) erzeugen können.
Da keiner ne andere Idee hatte, hab ich dann mal eine Lösung vorgestellt. Es sei allgemein

(19)
\begin{align} A=\begin{pmatrix}a_{11} & \cdots & a_{1n} \\ \vdots & \ddots & \vdots \\ a_{n1} & \cdots & a_{nn}\end{pmatrix} \end{align}

und

(20)
\begin{align} B=\begin{pmatrix}b_{11} & \cdots & b_{1n} \\ \vdots & \ddots & \vdots \\ b_{n1} & \cdots & b_{nn}\end{pmatrix}. \end{align}

Da die Gleichung oben für alle $x,y\in\mathbb R^n$ gelten soll, kann man sich einfach spezielle wählen und gucken, was passiert. Braucht man natürlich n gutes Auge für, damit die Wahl der Vektoren einen auch zum Ziel bringt. ;)
Wir setzen für $x$ den $p$-ten Einheitsvektor, d.h. den Vektor, der nur aus Nullen besteht, bis auf die $p$-te Stelle, da steht eine $1$, ein. D.h.:

(21)
\begin{align} x=e_p=(0\quad\cdots\underbrace{1}_{p\text{-te Stelle}}\cdots\quad 0)^T =\begin{pmatrix} 0 \\ \vdots \\ 1 \\ \vdots \\ 0 \end{pmatrix}. \end{align}

Entsprechend wählen wir $y$ als den $q$-ten Einheitsvektor, also:

(22)
\begin{align} y=e_q=(0\quad\cdots\underbrace{1}_{q\text{-te Stelle}}\cdots\quad 0)^T =\begin{pmatrix} 0 \\ \vdots \\ 1 \\ \vdots \\ 0 \end{pmatrix}. \end{align}

Jetzt rechnen wir einfach aus:

(23)
\begin{align} x^TA=\begin{pmatrix} 0 & \cdots & 1 & \cdots & 0 \end{pmatrix}\cdot \begin{pmatrix}a_{11} & \cdots & a_{1n} \\ \vdots & \vdots & \vdots \\ a_{p1} & \cdots & a_{pn} \\ \vdots & \vdots & \vdots \\ a_{n1} & \cdots & a_{nn}\end{pmatrix}. \end{align}

Das Produkt ist ja wieder ein Zeilenvektor der Länge $n$, also eine $1\times n$-Matrix. Der erste Eintrag dieser Matrix ist ja das Skalarprodukt aus unserem Vektor $x$ mit der ersten Spalte der Matrix $A$ (Definition der Matrixmultiplkation!). Vor allen $a_{k1}$ ist der Faktor dabei $0$, außer vor $a_{p1}$, da ist er $1$. Also ist das Skalarprodukt auch $a_{p1}$. (Das lässt sich auch besser erklären so von Mensch zu Mensch. :) Wenn du also noch ne Frage dazu hast, warum das gilt oder so … einfach nochmal nachfragen. ;)) Das ist unser erster Eintrag. Entsprechend sind die anderen Einträge dann $a_{pj}$. Also gilt:

(24)
\begin{align} x^TA=\begin{pmatrix} a_{p1} & \cdots & a_{pn}\end{pmatrix}. \end{align}

Das multiplizieren wir jetzt noch mit $y$, also mit dem $q$-ten Eineitsvektor, bei dem die $1$ an der $q$-ten Stelle steht.

(25)
\begin{align} x^TAy=\begin{pmatrix} a_{p1} & \cdots & a_{pn}\end{pmatrix}\cdot \begin{pmatrix} 0 \\ \vdots \\ 1 \\ \vdots \\ 0 \end{pmatrix}. \end{align}

Diese Matrixmultiplikation ergibt eine Matrix mit einem Eintrag. Dieser ist einfach nur das Skalarprodukt aus dem Vektor links und dem Vektor rechts. Und da die $1$ an der $q$-ten Stelle steht, bleibt nur der Eintrag $a_{pq}$ erhalten. Das Ergebnis ist also:

(26)
\begin{align} x^TAy=\begin{pmatrix} a_{p1} & \cdots & a_{pn}\end{pmatrix}\cdot \begin{pmatrix} 0 \\ \vdots \\ 1 \\ \vdots \\ 0 \end{pmatrix}=\begin{pmatrix} 0a_{p1}+\ldots+1a_{pq}+\ldots+0a_{pn} \end{pmatrix}=\begin{pmatrix} a_{pq} \end{pmatrix}. \end{align}

Bei $x^TBy$ kommt natürlich das Gleiche raus, d.h.:

(27)
\begin{align} x^TBy=\begin{pmatrix} b_{pq} \end{pmatrix}. \end{align}

Und die beiden Ergebnisse sollen nun gleich sein, also gilt:

(28)
\begin{align} \begin{pmatrix} a_{pq} \end{pmatrix}=x^TAy=x^TBy=\begin{pmatrix} b_{pq} \end{pmatrix}, \end{align}

falls man $x=e_p$ und $y=e_q$ wählt. Der Eintrag der Matrix $A$ in der $p$-ten Zeile und $q$-ten Spalte ist also gleich dem Eintrag in der gleichen Zeile und gleichen Spalte der Matrix $B$. Da wir $p$ und $q$ beliebig gewählt hatten, muss das für alle Einträge gelten, also müssen die beiden Matrizen gleich sein:

(29)
\begin{equation} A=B. \end{equation}

Und wenn nun $x^TAy=x^TA^Ty$ für alle $x,y\in\mathbb R^n$ gilt, dann ist das ein Spezialfall davon, nämlich der mit $B=A^T$, also muss gelten:

(30)
\begin{equation} A^T=A. \end{equation}

Damit ist dann auch die Hinrichtung gezeigt.
Wie gesagt … wenn du noch Fragen dazu hast … von Mensch zu Mensch erklärt sich sowas IMMER besser. ;)

Aufgabe 4

Nun ein kleines Quiz: (auch hier hilft wieder $\left(A\cdot B\right)^T=\left(B^T\cdot A^T\right)$)

  • Angenommen, die Matrix $A$ ist invertierbar. Treffen Sie eine begründete Aussage für die Invertierbarkeit von $A^T$.
  • Ganz offensichtlich ist $E=E^{-1}$ und auch $E=E^T$ und somit $E^T=E^{-1}$. Gibt es noch weitere Matrizen $A$, sodass $A\cdot A^T=E$?
  • In dem Fall, dass $A^T=A^{-1}$, wie verhält sich das Skalarprodukt zweier Vektoren $\langle x,y\rangle$ in Bezug auf das Skalarprodukt $\langle Ax,Ay\rangle$ ihrer Bilder?

Lösung

Also … die erste Aufgabe war ja kwasi HA von Nicci. Da nur Andrej die Lösung hatte (und der schon dran war), hab ich dann erstmal gefragt, was man denn, wenn man mal ganz primitiv rangeht, denken würde, was die Inverse von $A^T$ sein könnte. Also die Frage war: Was ist $(A^T)^{-1}$. Da sich niemand getraut hat oder keiner ne Vermutung hatte (was ich nicht glaube …), hab ich dann einfach hingeschrieben, dass gilt:

(31)
\begin{equation} (A^T)^{-1}=(A^{-1})^T. \end{equation}

Man kann also das Transponieren und das Invertieren "vertauschen". Andrej hat dann seine Lösung zum Beweis dieser Aussage vorgeführt:

(32)
\begin{align} \begin{align} (A^T)^{-1}&=(A^{-1})^T\cr A^T(A^T)^{-1}&=A^T(A^{-1})^T\cr A^T(A^T)^{-1}&=(A^{-1}A)^T\cr A^T(A^T)^{-1}&=E^T\cr A^T(A^T)^{-1}&=E \end{align}

Von der zweiten zur dritten Zeile hat er dabei wieder $(AB)^T=B^TA^T$ benutzt. Dann hat er noch vergessen, zu sagen, dass man die Schritte alle umkehren kann (Äquivalenzumformung und so …). Das hab ich dann gesagt (war cleverweise aber falsch :D). "Und deswegen gilt die erste Gleichung, weil die letzte Gleichung ja die Definition der Inversen ist. Und wenn wir den Weg rückwärts gehen, … " Dann hat Kropp gesagt, dass Andrej schon voraussetzt, dass $A^T$ eine Inverse besitzt, sonst würde er nicht von der zweiten auf die erste Gleichung kommen. Dann hab ich mich korrigiert … also doch keine Äquivalenzumformung.
Wir wollten ja kwasi beweisen, dass $A^T$ invertierbar ist, wenn $A$ es auch ist. Also dürfen wir die Aussage, dass $A^T$ invertierbar ist, natürlich nicht benutzen, um zu zeigen, dass $(A^T)^{-1}=(A^{-1})^T$ gilt.
Der richtige Weg dafür wäre dann so:
Es gilt:

(33)
\begin{align} A^T(A^{-1})^T=(A^{-1}A)^T=E^T=E\qquad \text{und}\qquad (A^{-1})^TA^T=(AA^{-1})^T=E^T=E. \end{align}

Damit ist $(A^{-1})^T$ eine Inverse von $A^T$, weil es die Definition der Inversen erfüllt. Da die Inverse einer Matrix aber eindeutig bestimmt ist, muss es auch die Inverse von $A^T$ sein. Also folgt:

(34)
\begin{equation} (A^T)^{-1}=(A^{-1})^T. \end{equation}

Zur zweiten Teilaufgabe: Da hat Thomas dann einfach mal eine angegeben, nachdem keiner was dazu sagen wollte …
Er hat natürlich einen möglichst einfachen Fall betrachtet, nämlich den der $2\times 2$-Matrizen. Da ist ja

(35)
\begin{align} E=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}. \end{align}

Damit gilt ja nicht nur $E^T=E^{-1}$, sondern sogar $E^T=E^{-1}=E$. Er hat dann noch

(36)
\begin{align} A=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \end{align}

angegeben. Da gilt dann $A^T=A$ und daraus folgt:

(37)
\begin{align} A\cdot A^T=A\cdot A=\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}\cdot \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}=\begin{pmatrix} 0\cdot 0+1\cdot 1 & 0\cdot 1+1\cdot 0 \\ 1\cdot 0+0\cdot 1 & 1\cdot 1+0\cdot 0 \end{pmatrix}=\begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix}=E. \end{align}

Damit hat man dann auch da $A^T=A^{-1}=A$.
Vielleicht noch ein weiteres Beispiel von mir, wo zwar $B^T=B^{-1}$, aber nicht $B^T=B$ gilt:
Du kannst ja mal selbst nachprüfen, dass für

(38)
\begin{align} B=\begin{pmatrix} 0,8 & -0,6 \\ 0,6 & 0,8 \end{pmatrix} \end{align}

ebenfalls $B^T=B^{-1}$ gilt. Dazu musst du also Folgendes zeigen:

(39)
\begin{align} B\cdot B^T=E. \end{align}

Einfach mal ausrechnen. ;)

Sooo, hoffe, es hat dir n bisschen geholfen, dass ich das nochma aufgeschrieben hab … auch wenn ichs zum 10ten Mal sage … bei Fragen, du weißt schon und so … ;)
Achja und die letzte Teilaufgabe der vierten Aufgabe haben wir nicht mehr geschafft. Entsprechend haben wir auch keinen neuen Stoff mehr eingeführt, das macht Thomas dann nächste Stunde.
Also … schönes Wochenende und so und bis denne :wink:

Unless otherwise stated, the content of this page is licensed under Creative Commons Attribution-Share Alike 2.5 License.