Sei \( p \in \mathbb{C}[x] \) beliebig, also
\(\begin{aligned} p(x)=\sum \limits_{i=0}^{n} \alpha_{i} x^{i}, \quad \alpha \in \mathbb{C} .\end{aligned} \)
Da \(A\) normal ist, existiert eine Diagonalisierung über \( \mathbb{C} \), insbesondere eine unitäre Matrix \( \mathrm{S} \) mit
\(\begin{aligned} A=S^{H} D S \Longrightarrow A^{H}=S^{H} D^{H} S=S^{H} \bar{D} S\end{aligned} \)
für \(D\) diagonal. Es gilt also
\(\begin{aligned} p\left(\mathbf{S}^{H} \mathbf{D S}\right)=\sum \limits_{i=0}^{n} \alpha_{i}\left(\mathbf{S}^{H} \mathbf{D S}\right)^{i}=\sum \limits_{i=0}^{n} \alpha_{i} \mathbf{S}^{H} \mathbf{D}^{i} \mathbf{S}=\mathbf{S}^{H} p(\mathbf{D}) \mathbf{S}\end{aligned} \)
Für müssen also \( p \) so wählen, dass \( p(\mathbf{D})=\overline{\mathbf{D}} \) (komplex konjugiert) gilt, also wenn \( \lambda_{\mathrm{i}} \) ein Eigenwert von \( A\) ist, so soll \( p\left(\lambda_{i}\right)=\overline{\lambda_{i}} \) gelten. Ein solches Polynom kann man z.B. durch Interpolation konstruieren (hier ist ja lediglich nach der Existenz gefragt, es reicht also zu wissen, dass ein solches Polynom existieren muss). Wir konstruieren nun \( p_{1}, \ldots, p_{m} \) für alle \( \boldsymbol{A} \in M \) (ich nehme an, dass \( |M|=m \) ).
Nun können wir ähnlich wie bei der Lagrange interpolation vorgehen: Seien \( E_{1}=\left\{\lambda_{1}, \ldots, \lambda_{k}\right\} \) die Eigenwerte aller Matrizen in \(M\backslash\left\{\boldsymbol{A}_{1}\right\} \), welche verschieden von den Eigenwerten von \( A_{1} \) sind. Dann wird unser modifiziertes \( p_{1} \) die Form
\(\begin{aligned} p_{1}(x)=\left(x-\lambda_{1}\right) \cdots\left(x-\lambda_{k}\right) p(x)\end{aligned} \)
Die Idee ist hier, dass sobald wir irgendendeine andere Matrix als \( A_{1} \) in \( p_{1} \) Einsetzen, wir die Nullmatrix erhalten. Dann können wir nämlich einfach eine Linearkombination der \( p_{i} \) am Ende betrachten. Das einzige Problem is jetzt noch, dass, wenn wir \( A_{1} \) in \( p_{1} \) einsetzten, wir noch einen zusätzlichen Faktor \( \left(\lambda_{A_{1}}-\lambda_{1}\right) \cdots\left(\lambda_{A_{1}}-\lambda_{k}\right) \) für jeden Eintrag \( \lambda_{\mathbf{A}_{1}} \) der Diagonale erhalten. Also konstuieren wir unser erstes Polynom so, dass
\(\begin{aligned} \tilde{p}\left(\lambda_{\mathbf{A}_{1}}\right)=\frac{\overline{\lambda_{\mathbf{A}_{1}}}}{\left(\lambda_{\mathbf{A}_{1}}-\lambda_{1}\right) \cdots\left(\lambda_{\mathbf{A}_{1}}-\lambda_{k}\right)}\end{aligned} \)
gilt für alle Eigenwerte \( \lambda_{A_{1}} \) von \( \boldsymbol{A}_{1} \). Unser letzendliches Polynom \( p_{1} \) wird also die Form
\(\begin{aligned} p_{1}(x)=\left(x-\lambda_{1}\right) \cdots\left(x-\lambda_{k}\right) \tilde{p}(x)\end{aligned} \)
haben. Diesen Prozess wiederholen wir jetzt für alle übrigen Matrizen in \( M \), und unser finales Polynom wird dann einfach die Summe all jener sein, also
\(\begin{aligned} P(x)=\sum \limits_{i=1}^{m} p_{m}(x) .\end{aligned} \)