0 Daumen
3k Aufrufe


die Aufgabe lautet zu zeigen (oder zu widerlegen), dass wenn (v1, v2) linear unabhängig sind, auch (v1 + v2, v2) linear unabhängig sind.
Leider habe ich nichtmal einen Ansatz. wäre also schon über alle Anätze dankbar :)

Danke
Avatar von

1 Antwort

0 Daumen

(v1, v2) linear unabhängig heißt doch, falls

a*v1+b* v2 = 0-Vektor, dann a=b=0 .

machst du das gleiche mit  (v1 + v2, v2)

also a* (v1 + v2) + b*v2 = 0-Vektor , dann

a* v1 +    ( a + b) *v2 = 0-Vektor

und wegen der Lin. Unabhängigkeit von v1 und v2 also

a= 0 und  a+b = 0

also auch a=b=0.   q.e.d.

Avatar von 289 k 🚀

a* v1 +    ( a + b) *v2 = 0-Vektor 

Und wie komme ich darauf dass hier der 0-Vektor nur rauskommt wenn auch a=b=0 gilt? Es könnte sich doch auch irgendeine andere, nicht-triviale Lösung ergeben haben? Man addiert ja schließlich a*v2 ...

a* v1 +    ( a + b) *v2 = 0-Vektor 

Und wie komme ich darauf dass hier der 0-Vektor nur rauskommt wenn auch a=b=0 gilt?

Hier geht die Voraussetzung ein, dass v1,v2 lin. unabh. sind. Für diese

beiden gibt es dann eben nur die triviale Lösung in der Form:

Die Faktoren vor  v1,v2 sind beide 0, also  (s.o.)


a= 0 und  a+b = 0

Und daraus kann man ja leicht herleiten, dass a=b=0 sein muss.


Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community