0 Daumen
983 Aufrufe

Aufgabe:

Sei \(A\in \mathbb{R}^{2,2}\) eine symmetrische Matrix mit zwei verschiedenen reellen Eigenwerten \(\lambda_1,\lambda_2\) und einem Eigenvektor \(v_1\) zum Eigenwert \(\lambda_1\).

Jetzt soll ich beweisen, dass jeder Vektor \(v\in \mathbb{R}^2\), der senkrecht auf den Eigenvektor \(v_1\) ist, ein Eigenvektor zum Eigenwert \(\lambda_2\) ist.

\(v_2 \neq 0\)

Problem/Ansatz:

\(\langle v_1,v_2\rangle=0\)

\(A\cdot v_1=\lambda_1\cdot v_1\)


Wäre nett, wenn mir jemand eine Erklärung geben könnte :)


123vier

Avatar von

Hallo :-)

In welcher Menge lebt deine Matrix \(A\)? In \(\mathbb{R}^{2,2}\) oder \(\mathbb{R}^{n,n}\), etc. ?

Wir befinden uns hier im R2


123vier

1 Antwort

0 Daumen

die Antwort kommt etwas spät, aber dafür kannst du dir das nochmal anschauen und nachfolgende Fragesteller, die die gleiche Frage haben, können sich auf dieser Weise sofort Tipps holen. Fangen wir an.

Die Behauptung ist:

Für eine symmetrische Matrix \(A \in \mathbb{R}^{n \times n}\) sind dessen Eigenvektoren zu verschiedenen Eigenwerte orthogonal.

Vorüberlegung:

(1) Wir betrachten hier symmetrischen Matrizen. Diese haben die besondere Eigenschaft, dass sie identisch mit ihrer Transponierten sind: \(A = A^T\).

(2) Es ist \(0 \neq v_1 \in \mathbb{R}^n\) ein Eigenvektor zum Eigenwert \(\lambda_1\) von \(A\), wenn die Gleichung \(Av_1 = \lambda_1 v_1\) erfüllt ist.

(3) Wir nennen \(v_1, \ v_2 \in \mathbb{R}^n\) orthogonal, wenn dessen Skalarprodukt gleich Null ist: \(v_1 \cdot v_2 = 0\)

(4) Das Skalarprodukt können wir auch schreiben als \(v_1 \cdot v_2 = v_1^Tv_2\), denn:

Sei o.E.d.A. \(n = 3\). \(\begin{pmatrix} x_1 \\ y_1 \\ z_1\end{pmatrix}^T\begin{pmatrix} x_2 \\ y_2 \\ z_2 \end{pmatrix} = \begin{pmatrix} x_1 & y_1 & z_1\end{pmatrix}\begin{pmatrix} x_2 \\ y_2 \\ z_2 \end{pmatrix} \stackrel{Matrix \ mult.}{=} x_1x_2 + y_1y_2 + z_1z_2\)


Nun kommen wir zum Beweis. Ich werde hier einige Zwischenschritte weglassen, weil du selber ja auch noch etwas machen sollst.

Beweis (Vorlage):

\(\lambda_1v_1^Tv_2 \stackrel{(*)}{=} (Av_1)^Tv_2 = v_1^TA^Tv_2 = ... = \lambda_2v_1^Tv_2 \iff (\lambda_1 - \lambda_2)v_1^Tv_2 = 0\)

\((*)\) Überlege dir, warum \(\lambda_1v_1^T = (Av_1)^T\) gilt. Solltest du nicht sofort drauf kommen, nimm dir eine \(3 \times 3\) Matrix und einen dreidimensionalen Vektor und führe die Multiplikationen durch. Schau dann, was auf der linken und auf der rechten Seite für Vektoren stehen. Wie sehen die aus?

Aus \((\lambda_1 - \lambda_2)v_1^Tv_2 = 0\) erhalten wir die Behauptung, warum? Warum kann nicht \(\lambda_1 - \lambda_2 = 0\) gelten?

Avatar von

Ich fand die Aufgabe auch ganz interessant, muss aber auch sagen, dass ich bis jetzt ebenfalls nicht weit gekommen bin:

\((\lambda_1 - \lambda_2)v_1^Tv_2 = 0\) ist trivialerweise erfüllt, da \(v_1^Tv_2=0\) bereits gilt, weil \(v_1\) und \(v_2\) orthogonal sind. \(\lambda_1 - \lambda_2 \neq 0\), da die Eigenwerte nach Voraussetzung verschieden sind. Aus meiner Sicht würde das so aber nicht reichen, die Behauptung zu zeigen.

Ansonsten habe ich mal \((\lambda_1 - \lambda_2)v_1^Tv_2 = 0\) nochmal so umgeformt:

$$ \begin{aligned}(\lambda_1 - \lambda_2)v_1^Tv_2 &= 0\\\Leftrightarrow  0=v_1^T\cdot \underbrace{A\cdot v}_{=:w}=\lambda_1v_1^Tv_2&=\lambda_2v_1^Tv_2=v_1^T\cdot \underbrace{\lambda_2\cdot v}_{=:z} \end{aligned} $$

Leider folgt hier nicht i.A \(v=w\) und ich sehe nirgends einen Anhaltspunkt, \(\lambda_1\neq \lambda_2\) zu nutzen...

Würde mich auch sehr interessieren.

Du hast recht, ich habe nur gezeigt, dass die Eigenwerte einer symmetrischen Matrix orthogonal zueinander sind. Deswegen genügte es,

\((\lambda_1 - \lambda_2)v_1^Tv_2 = 0\)

zu betrachten, weil daraus dann \(v_1^Tv_2 = 0\) nach Voraussetzung und damit die Orthogonalität folgt.


Warum ich die Behauptung durcheinander gebracht habe, kann ich dir heute nicht mehr sagen. Ich werde den richtigen Beweis die Tage aber nachholen und den Beitrag korrigieren.

...ich habe nur gezeigt, dass die Eigenwerte einer symmetrischen Matrix orthogonal zueinander sind.

Genau!

Und jetzt nutzt man aus, dass \(A\) als symmetrische Matrix diagonalisierbar ist oder weil beide reellen Eigenwerte von \(A\) verschieden sind, dass \(A\) diagonalisierbar ist. Hier sind es ja nur zwei Eigenwerte, was die Sache dann besonders einfach macht, denn wegen der Diagonalisierbarkeit von \(A\) gibt es eine Basis aus Eigenvektoren. Hier sind es nur zwei, sodass die Eigenräume nur eindimensional sind. \(v_1,v_2\) sind als Eigenvektoren von \(A\) orthogonal zueinander. Außerdem gilt aus dem Konzept zu orthogonalen Komplementen die Gleichheit $$ 2=\dim(\mathbb{R}^2)=\dim((\operatorname{span}(v_1))^{\perp})+\dim(\operatorname{span}(v_1))=\dim((\operatorname{span}(v_1))^{\perp})+1, $$

sodass \(\dim((\operatorname{span}(v_1))^{\perp})=1\) folgt und damit bereits \(v_2\in (\operatorname{span}(v_1))^{\perp}\). Nun sei \(v\in \mathbb{R}^2\) beliebig mit \(\langle v_1,v\rangle=0\). Dann ist wegen \(\dim((\operatorname{span}(v_1))^{\perp})=1\) auch \(v\in \operatorname{span}(v_1))^{\perp}\). Also sind \(v,v_2\) linear abhängig, woraus folgt, dass \(v\) im Eigenraum von \(v_2\) enthalten ist, in Zeichen: \(v\in \operatorname{Eig}(A,\lambda_2)\).

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community