0 Daumen
576 Aufrufe

Hallo wie kann man für die folgenden zwei Matrizen


A = ( 0 , 1 / 0 , 0 ) und B = ( 0 , 0 / 1 , 0)

exp(A+B) berechnen ?

Avatar von

1 Antwort

+1 Daumen

A+B=C=((0,1),(1,0))

Nutze die Formel

e^{C}=U*e^{D}*U^{-1}, wobei D die zu C gehörige Diagonalmatrix ist

Die Matrix D bekommst du mithilfe der Eigenwerte, U mithilfe der Eigenvektoren von C.

D=((-1,0),(0,1))

U=(-1,1),(1,1)

U^{-1}=1/2*(-1,1),(1,1)

e^D ist einfach zu berechnen, es gilt

exp(diag(λ1,......,λn))=diag(e^λ1,......,e^λn)

---> e^{C}=e^{A+B}=U*e^{D}*U^{-1}=(([1+e^2]/[2e],[-1+e^2]/[2e]),([-1+e^2]/[2e],[1+e^2]/[2e]))

Avatar von 37 k

Ein anderes Problem?

Stell deine Frage

Ähnliche Fragen

+1 Daumen
1 Antwort
0 Daumen
0 Antworten
0 Daumen
2 Antworten
0 Daumen
1 Antwort

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community