Die additive Gruppe eines Rings ist ja nach Definition immer abelsch und somit auf natürliche Weise eine \( \mathbb Z \)-Algebra, denn für einen Ring \( R \) haben wir für \( x \in R \) und \( n \in \mathbb Z \) die natürliche "Skalarmultiplikation"
$$ n \cdot x ~:= \begin{cases} x + ... + x & \text{falls } n > 0 \text{ (Summe hat n Summanden)}\\0_R & \text{falls } n=0\\ -((-n)\cdot x)& \text{falls } n < 0\end{cases} $$
Zuerst einmal sollten wir zwei ganz allgemeine Aussagen besprechen:
Sind \(R, ~S \) Ringe und ist \( \varphi ~:~ R \to S \) ein Ringisomorphismus, sowie \( f = \sum_{i=0}^k f_i \cdot t^i \in \mathbb Z[t] \) ein Polynom mit ganzzahligen Koeffizienten, dann gilt für alle \( x \in R \):
$$ f(x) = 0_R \iff f(\varphi(x)) = 0_S $$
Der Beweis ist nicht schwer:
Es ist ganz allgemein $$ f(\varphi(x) ) = \sum_{i=0}^k f_i\varphi(x)^i = \sum_{i=0}^k f_i\varphi(x^i) = \varphi(\sum_{i=0}^k f_i \cdot x^i) = \varphi(f(x)) $$
(Ein Isomorphismus vertauscht mit Summen, Produkten und Invertierung im Ring, also vertauscht er insb. auch mit Skalarmultiplikation mit Elementen aus \( \mathbb Z \), das ist ja im Prinzip nur Summation im Ring)
=> Falls \( f(x) = 0_R \) ist also \( f(\varphi(x)) = \varphi(f(x)) = \varphi(0_R) = 0_S \)
<= Falls \( f(\varphi(x)) = 0_S \), dann ist auch \( \varphi(f(x)) = 0_S \) und da \( \varphi \) ein Isomorphismus ist sind Urbilder eindeutig bestimmt, wegen \( \varphi(0_R)=0_S \) muss also schon \( f(x) = 0_R \) sein.
---
Zweite Aussage:
Sind \( R_1,...,R_n \) Ringe und \( f = \sum_{i=0}^k f_i \cdot t^i \in \mathbb Z[t] \) ein Polynom mit ganzzahligen Koeffizienten dann gilt für alle \( (x_1,...,x_n) \in R_1 \times \dotsm \times R_n \) (Produktring):
$$ f( (x_1,...,x_n) ) = (0_{R_1},...,0_{R_n}) \iff \forall i \in \{1,...,n\} ~:~ f(x_i) = 0_{R_i} $$
Beweis:
Auch hier gilt ganz allgemein:
$$ \begin{aligned} f( (x_1,...,x_n) ) &= \sum_{i=0}^k f_i \cdot (x_1,...,x_n)^i \\&= \sum_{i=0}^k f_i \cdot (x_1^i,...,x_n^i) \\&= \left(\sum_{i=0}^k f_i \cdot x_1^i,..., \sum_{i=0}^k f_i \cdot x_n^i\right) \\&= (f(x_1),...,f(x_n)) \end{aligned} $$
Rest ist klar.
---
Wenn wir jetzt für \( m = p_1^{e_1} \cdot ... \cdot p_n^{e_n } \) und ein Polynom \( f \in \mathbb Z[t] \) die Kongruenz
$$ f(x) \equiv 0 \mod (m) $$ lösen möchten, können wir das natürlich mit dem chinesischen Restsatz machen, indem wir erst einmal die Kongruenzen:
$$ f(x) \equiv 0 \mod (p_i^{e_i}) \quad \forall i =1,...,n $$
separat lösen. Wenn wir für jede dieser Gleichungen eine Lösung \( y_i \) finden, können wir daraus mit dem Isomorphismus aus dem chinesischen Restsatz eine Lösung für unsere ursprüngliche Kongruenz lösen. Wir haben ja den Isomorphismus:
$$ \varphi ~:~ \mathbb Z /m \mathbb Z \to \mathbb Z /p_1^{e_1} \mathbb Z \times \dotsm \times \mathbb Z /p_n^{e_n} \mathbb Z $$
Wir wissen außerdem, dass \( f(y_i) \equiv 0 \mod (p_i^{e_i}) \), also nach der zweiten Aussage oben auch \( f((y_1,...,y_n)) = (0,...,0) \). Da wir einen Isomorphismus haben, gibt es ein Urbild: \( x := \varphi^{-1}((y_1,...,y_n)) \). Und nach der ersten Aussage oben ist:
$$ f(x) = 0 \iff f( \varphi^{-1}((y_1,...,y_n))) = 0 \iff f(\varphi( \varphi^{-1}((y_1,...,y_n)))) = f((y_1,...,y_n))=(0,...,0) $$
Und da die rechte Aussage erfüllt ist, ist dann auch die linke Seite erfüllt.
Ein Beispiel zur Anwendung auf quadratische Polynome folgt gleich in einem Kommentar.