a) zz. ist \( \tau(A\cdot B) = \tau(A) \circ \tau(B) \) für \( A, B \in G \). Das ist eine Gleichheit von Abbildungen, also zeigt man, dass diese Abbildungen in jedem Punkt des Definitonsbereichs übereinstimmen:
$$ \forall v\in X : \tau(AB)(v) = ( \tau(A) \circ \tau(B) )(v) $$ Sei also \( v \in X \), dann gilt $$ \tau(AB)(v) = \varphi_{AB}(v) = (AB)v \stackrel{!}{=} A(Bv) = \varphi_A(Bv) = \varphi_A(\varphi_B(v)) = ( \tau(A) \circ \tau(B) )(v) $$ Der markierte Schritt ist möglich, da die Multiplikation von Matrizen assoziativ ist.
---
Mithilfe von \( \tau \) wirkt die Gruppe \( G \) jetzt auf der Menge \( X \). Für \( A \in G \) und \( v \in X \) setzt man $$ A \ast v := \underbrace{\tau(A)}_{X \to X}(v) $$
Im Allgemeinen kann man sogar zeigen, dass eine Bijektion der Mengen
$$ \{ \text{Gruppenhom. } \tau : G \to \operatorname{Bij}(x) \} \longleftrightarrow \{ \text{Operationen von } G \text{ auf } X \} $$ existiert. Jeder Operation kann man als eindeutig so einen Homomorphismus und jedem Homomorphismus eindeutig eine Gruppenoperation zuordnen. Das aber nur am Rande.
Wenn wir \( \tau: G \to \operatorname{Bij}(X),~ A \mapsto \varphi_A \) wählen bekommen wir z.B. die gewöhnliche Matrix-Vektor Multiplikation als Wirkung: \( A \ast v = \varphi_A(v) = A \cdot v \).
Wenn wir \( \tau: G \to \operatorname{Bij}(X),~ A \mapsto \operatorname{id}_X \) wählen, die triviale Wirkung: \( A \ast v = \operatorname{id}_X(v) = v \)
---
b) Hier soll nun der Stabilisator \( G_x \) bestimmt werden. Der ist definiert als $$ G_x := \{ A \in G ~|~ A\ast x = x (= A\cdot x ) \}$$
Die Wirkung des gebenen Homomorphismus entspricht wie oben verdeutlicht gerade der normalen Matix-Vektor Multplikation, man muss also alle invertierbaren 2x2 Matrizen A mit \( Ax = x \) bestimmen:$$ \begin{pmatrix} a\\c\end{pmatrix} = \begin{pmatrix} a & b \\ c & d\end{pmatrix}\begin{pmatrix} 1\\0\end{pmatrix} = \begin{pmatrix} 1\\0\end{pmatrix} $$Also muss schonmal \( a = 1 \) und \( c = 0 \) gelten. Die Matrix muss aber auch invertierbar sein, d.h. \( \det A = ad - bc = d \neq 0 \). \( b \) kann beliebig gewählt werden und wir erhalten$$ G_x := \left\{ \begin{pmatrix} 1 & b \\ 0 & d\end{pmatrix} ~\middle|~ b,d \in \mathbb{R}, d\neq 0 \right\} $$
---
c) Hier soll die Bahn von \( x \) bestimmt werden. Anschaulich ist (finde ich zumindest) klar, dass da \( \mathbb{R}^2\setminus\{0\} = X \setminus\{0\} \) rauskommen sollte, denn die Bahn ist definiert als
$$ Gx := \{ A\ast x (= A\cdot x) ~|~ A \in G \} $$
Mit bijektiven Matrizen kann man Vektoren um den Ursprung drehen und skalieren, d.h. man erreicht aus einem Vektor ungleich 0 sicherlich irgendwie alle Vektoren ungleich 0 und genau das ist für das spezielle x hier zu zeigen.
Die Inklusion \( Gx \subseteq \mathbb{R}^2\setminus\{0\} \) ist leicht gezeigt, denn für eine invertierbare Matrix \( A \in G \) gilt für \( x \neq 0 \) auch \( A\ast x = Ax \neq 0 \), wir landen also tatsächlich im Raum aller Vektoren ungleich 0.
Für die andere Inklusion \( Gx \supseteq \mathbb{R}^2\setminus\{0\} \) nimmt man sich ein \( y \in \mathbb{R}^2\setminus\{0\} \) und sucht eine invertierbare Matrix \( A \in G \) mit \( A\ast x = Ax = y \) Ansatz: $$ \begin{pmatrix} a\\c\end{pmatrix} = \begin{pmatrix} a & b \\ c & d\end{pmatrix}\begin{pmatrix} 1\\0\end{pmatrix} = \begin{pmatrix} y_1\\y_2\end{pmatrix} $$
also \( a = y_1 \) und \( c = y_2 \). \( b, d \) müssen wir jetzt so wählen, dass eine invertierbare Matrix entsteht. $$ \det A = ad - bc = y_1 d - b y_2 \neq 0$$
Da \( y \neq 0 \) ist \( y_1 \neq0 \) oder \( y_2 \neq 0 \). Falls \( y_1 \neq 0 \) setze \( d = 1, b = 0 \) (dann ist \( \det A = y_1 \neq 0 \)), falls \( y_2 \neq 0 \) eben \( d = 0, b = -1\) (dann ist \( \det A = y_2 \neq 0 \)). Wir erhalten also in jedem Fall eine invertierbare Matrix, die x auf y abbildet.
---
d) Sei \( x' \in X \setminus\{ 0\} \) und \( A \in G \) s.d. \( A\ast x = Ax = x' \) (#1) (wir haben in c) ja gerade gezeigt, dass eine solche Matrix A existieren muss! Denn schließlich gilt: \( x' \in Gx = X\setminus\{0\}\))
zz. ist \( G_{x'} = A G_x A^{-1} \), also dass die Stabilisatoren konjugiert zueinander sind.
Wir zeigen einfach die beiden Inklusionen:
\( G_{x'} \subseteq A G_x A^{-1} \): Sei \( B \in G_{x'} \), d.h. B ist eine invertierbare 2x2 Matrix mit \( Bx' = x' \) (#2) und wir möchten sehen, dass \( B \in A G_x A^{-1} \) liegt. Das heißt wir müssen eine invertierbare Matrix \( C \in G_x \) mit \( B = ACA^{-1} \) finden. Für diese gilt dann ja aber \( A^{-1}BA = C \), d.h. eigentlich müssen wir gar nicht suchen, sondern viel eher zeigen, dass diese Matrix eben in \( G_x \) liegt (also \( Cx = x \) gilt). Jetzt ist aber
$$ Cx = A^{-1}BAx \stackrel{(\#1)}{=} A^{-1}Bx' \stackrel{(\#2)}{=} A^{-1}x' \stackrel{(\#3)}{=} x $$
(#3) da (#1) \( \implies Ax = x' \implies A^{-1}x' = x \)
also \( C \in G_x \) und damit auch \( B \in AG_xA^{-1}\).
Die andere Inklusion \( G_{x'} \supseteq A G_x A^{-1} \). Sei \( B =A C A^{-1} \in A G_x A^{-1} \) mit \( C \in G_x \) (also \(Cx=x\)), dann gilt auch
$$ Bx' = ACA^{-1}x' \stackrel{(\#3)}{=} ACx = Ax \stackrel{(\#1)}{=} x' $$
und somit \( B \in G_{x'} \)