Aufgabe:
Wie kann man die Koordinaten eines Vektors der in Basis 1 gegeben ist, in der Basis 2 darstellen?
1. Basis 1: \( \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \)
Basis 2: \( \begin{pmatrix} 1 & 2 & 0 \\ 0 & -1 & -1 \end{pmatrix} \)
Gegebener Vektor: \( \begin{pmatrix} 1\\-1 \end{pmatrix} \)
2. Basis 1: \( \begin{pmatrix} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 1 & 1 & 1 \end{pmatrix} \)
Basis 2: \( \begin{pmatrix} 1\\-1\\2 \end{pmatrix} \)
Gegebener Vektor: \( \begin{pmatrix} 1\\-1\\1 \end{pmatrix} \)
Problem/Ansatz:
Das hier sind jetzt nur zwei Teilaufgaben aus einer längeren Aufgabe. Ich glaube, wenn mir jemand das Vorgehen erklärt, verstehe ich was man zu tun hat. Ich habe ähnliche Fragen gesehen und dann versucht, für 1. das LGS
a*(1,0)+b*(2,-1)+c*(0,-1)=(1,-1)
zu lösen, allerdings bin ich da auf keine Lösung gekommen und weiß nicht, wie ich sonst weitermachen soll. Es wäre super, wenn mir jemand weiterhelfen könnte.