Ein ===> Tensor k-ter Stufe in n Dimensionen hat n ^ k Elemente.
k = 0 ===> n ^ 0 = 1 Skalar
k = 1 : n ^ 1 = n Vektorkomponenten
k = 2 : n ² Komponenten einer quadratischen Matrix
k = 3 : n ³ Komponenten einer " Würfelmatrix "
k = 4: n ^ 4 ; hier brauchtest du einen vierdimensionalen Würfel, um die Matrix noch anschaulich unterzubringen. Wie heißt das Ding jetzt; Achtzell? Tesserakt? Egal.
Als Nächstes musst du schauen im Kowalski oder Greub, jeweils Band 2, was das ===> Tensorprodukt ist. An sich imtuitiv verständlich. Baue z.B. die Würfelmatrix T ( T wie " Tensor " ) aus den drei Vektoren u , v und w auf.
T = u ° v ° w ( 1 )
Bücher benutzen als Symbol des Tenorprodukts so ein X in einem Kreis; ich mach das mal mit diesem Gradzeichen.
Das Tensorprodukt funktioniert intuitiv Komponenten weise. Z.B.
T_123 = u_x v_y w_z ( 2a )
T_222 = u_y v_y w_y ( 2b )
usw. Das Tensorprodukt ist NICHT kommutativ
( u ° v )_12 = u_x v_y ; ( v ° u )_12 = v_x u_y ( 2c )
Und jetzt kann ich dir schon deine Antwort geben. Stell dir vor, u ist so aufgebaut:
u := ( 2 k + 3 | 4 | 5 ) ( 3 )
D.h. die Vektorkomponenten dürfen entweder konstante Zahlen sein oder ( höchstens ) linear abhängen von diesem Parameter k. Für v und w wollen wir Entsprechendes verabreden.
Ja dann wirst du mir doch zugeben, dass die einzelnen Matrixelemente des Tensors T in ( 1 ) Polynome in k ergeben können bis zum 3. Grade. Und das ist das ganze Geheimnis.
Alles, was dir jetzt noch an Verständnis fehlt: die überraschende Erkenntnis, dass auch eine Determinante nichts anderes ist als ein Tensor ...
Dazu müsstest du mal ( im Kowalsky oder Greub ) das Tema ===> Grassmannalgebra durchforsten; der Unterschied zum allgemeinen Fall ist lediglich: Vollständig antisymmetrisierte Tensoren im |R ^ n heißen n-Formen. Will man andeuten, dass man antimetrisiert, spricht man nicht mehr vom Tensorprodukt, sondern man nennt es " Wedge-Produkt " und schreibt " ^ "
Nicht nur ihr könnt Deutsch mit eurem ewigen " Hochpunkt " statt Maximum - ich kann es auch. Es heißt nicht Wedge, sondern Keil; Keilprodukt.
Nehmen wir als Beispiel den |R ³ Hast du schon mal vom Kreuzprodukt vernommen? Die Matematiker sagen ja in ihrem jugendlichen Leichtsinn: a X b gibt wieder einen Vektor.
Alles Mumpitz; für eine n-Form benutze ich jetzt mal nicht den Buchstaben T wie Tensor, sondern A wie antimetrisch. Als Keilprodukt geschrieben ist das Kreuzprodukt nämlich
A = a ^ b = a ° b - b ° a ( 4 )
Schau mal genauer hin; was da raus kommt, ist nämlich überhaupt kein Vektor. Es ist ein " Pseudovektor "
Es handelt sich um eine QUADRATISCHE MATRIX mit 3 X 3 = 9 Einträgen. Nur eben; nur drei von ihnen erweisen sich als linear unabhängig.
A_12 ; A_13 ; A_23 ( 5a )
Denn beispielsweise hast du
A_21 = - A_12 ( 5b )
A_11 = A_22 = A_33 = 0 ( 5c )
Und das Vorurteil erweist sich eben ala unausrottbar, ein Objekt, das drei unabhängige Komponenten aufweist, müsse ein Vektor sein.
Wieder der Sonderfall in drei Dimensionen; das Keilprodukt aus drei Vektoren ergibt ihre Determinante:
A = u ^ v ^ w ( 6a )
D.h. wenn du die drei Spalten einer Matrix einem Tensorprodukt unterwirfst, dann brauchst du dich nicht wundern, dass genau das passiert, was ich dir im Zusammenhang mit ( 3 ) schon erklärt hatte.
Auch hier ist die Determinante KEIN Skalar, sondern ein Tensor 3. Stufe, eine " Würfelmatrix " mit 3 ³ = 27 Einträgen. Nur eben
A_123 = A_231 = A_312 ( 6b )
A_213 = A_132 = A_321 = - A_123 ( 6c )
A_212 = 0 ( 6d )
In ( 6d ) findest du ein Beispiel, dass sich kein Index wiederholen darf.
Da Summa Summarum die Determinante nur eine linear unabhängige Komponente besitzt, wird sie gern als Skalar missdeutet.