0 Daumen
891 Aufrufe

Sei f : V → V eine beliebige lineare Abbildung und v und w zwei Eigenvektoren zu zwei verschiedenen
Eigenwerten von f. Beweisen oder widerlegen Sie, dass v + w stets kein Eigenvektor von f ist.

Avatar von

1 Antwort

+1 Daumen
 
Beste Antwort

Sei f(v) = v und f(w) = 2w mit v, w linear unabhängig. Dann ist f(v + w) = f(v) + f(w) = v + 2w. Angenommen es ex. ein x aus K mit x(v + w) = v + 2w => (x - 1)v + (x - 2)w = 0 => v und w linear abhängig. Das führt zum Widerspruch.

Man müsste nun noch angeben, dass eine solche Abbildung mit diesen Eigenvektoren existiert, aber das ist durch ein konkretes Beispiel zu machen. Die Argumentation lässt sich auch auf beliebige l.u. EV mit unterschiedlichem EW übertragen...

Avatar von

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community