Also wenn du über \(A\in \mathbb{R}^{n\times n} \) keine weiteren Informationen gegeben hast, wird es bereits schwierig, überhaupt die Matrixpotenz zu berechnen. Man kann allerdings für A eine sogeannte reelle Jordansche Normalform bestimmen:
https://de.wikipedia.org/wiki/Jordansche_Normalform#Reelle_jordansche_Normalform
Damit könnte man unter Umständen die Matrixpotenz etwas leichter berechnen.
Der schönste Fall wäre aber natürlich zu wissen, ob A diagonalisierbar ist. Weil so bekommt man auf jeden Fall eine relativ einfache Formel. Dann lässt sich A schonmal so umschreiben:
\(A=S\cdot D \cdot S^{-1} \), wobei \(S\in GL(n;\mathbb{R})\) und \(D^k:=diag(\lambda_1^k,...,\lambda_n^k)\in \mathbb{R}^{n\times n}\) eine Diagonalmatrix mit den Eigenwerten von A ist. Dann bekommst du schonmal für jedes \(k\in \mathbb{N}\)
\(A^k=(S\cdot D \cdot S^{-1})^k=\underbrace{(S\cdot D \cdot S^{-1})\cdot ... \cdot (S\cdot D \cdot S^{-1})}_{\text{k mal}}=S\cdot D^k\cdot S^{-1}. \)
Mit einem beliebig gewähltem \(m\in \mathbb{N}\) erhält man weiter
\(\sum\limits_{k=0}^m A^k=\sum\limits_{k=0}^m S\cdot D^k\cdot S^{-1}\stackrel{(*)}{=}S\cdot \Bigg(\sum\limits_{k=0}^m D^k \Bigg)\cdot S^{-1}\).
(*) Distributivität und Assoziativität bei Matrizenmultiplikation.
Damit bekommt man
\(\det\Bigg(\sum\limits_{k=0}^m A^k\Bigg)=\det\Bigg(S\cdot \Bigg(\sum\limits_{k=0}^m D^k \Bigg)\cdot S^{-1}\Bigg)\\[20pt]=\det(S)\cdot \det\Bigg(\sum\limits_{k=0}^m D^k\Bigg)\cdot \det(S^{-1}) =\det\Bigg(\sum\limits_{k=0}^m D^k\Bigg)\\=\begin{vmatrix} \sum\limits_{k=0}^m \lambda_1^k & & 0\\ & \ddots & \\ 0 & & \sum\limits_{k=0}^m \lambda_n^k \\ \end{vmatrix}=\underline{\underline{\prod\limits_{i=1}^n\Bigg(\sum\limits_{k=0}^m \lambda_i^k \Bigg)}} \)
wobei \(\sum\limits_{k=0}^m \lambda_i^k=\begin{cases}(m+1)\cdot \lambda_i,\quad \text{falls } \lambda_i=1 \\[10pt] \frac{1-\lambda_i^{m+1}}{1-\lambda_i},\quad \text{falls sonst} \end{cases} \).