Aussage:
Eigenvektoren zu verschiedenen Eigenwerten sind linear unabhängig
Mein Beweis:
Angenommen die Matrix A besitzt n∈ℕ Eigenwerte λ1,...,λn mit den zugehörigen EIgenvektoren v1,..,vn.
Angennommen die Eigenvektoren sind linear abhängig, dann existieren Koeffizienten a1,..,an-1 mit:
$$v_n=\sum \limits_{k=1}^{n-1}a_k \cdot v_k$$
Nun gilt jedoch: $$ \lambda_n v_n=A(v_n)=A(\sum \limits_{k=1}^{n-1}a_k \cdot v_k)=\sum \limits_{k=1}^{n-1}a_k \cdot A(v_k)=\sum \limits_{k=1}^{n-1}a_k \cdot \lambda_k v_k (i)$$
Es gilt aber insbesondere auch:
$$ \lambda_n v_n=\lambda_n \cdot \sum \limits_{k=1}^{n-1}a_k \cdot v_k= \sum \limits_{k=1}^{n-1}\lambda_n \cdot a_k \cdot v_k(ii)$$
Aus einem Koeffizientenvergelch von (i) und (ii) kann man folgern: $$ \lambda_n \cdot a_k =a_k \cdot \lambda_k\Rightarrow \lambda_n =\lambda_k $$
für alle k∈{1,...,n-1}.
Das ist ein Widerspruch zur Annahme, dass die Eigenwerte zu den Eigenvektoren verschieden sind, somit muss die Annahme, dass die Eigenvektoren linear abhängig sind falsch sein.
Die Eigenvektoren müssen somit linear unabhängig sein.
-------------------
Frage:
Im Internet wird dieser beweis meisten mit Induktion geführt, deswegen frage ich mich, ob mein Beweis hinreichend ist?