Aloha :)
Lagrange hat herausgefunden, dass in einem Extremum der Gradient der zu optimierenden Funktion$$f(x;y;z)=xz-y^2$$eine Linearkombination der Gradienten aller konstanten Nebenbedingungen$$g(x;y;z)=x^2+y^2+z^2=2=\text{const}$$sein muss. Da es hier nur eine Nebenbedingung gibt, heißt das:$$\operatorname{grad}f(x;y;z)\stackrel!=\lambda\cdot\operatorname{grad}g(x;y;z)\implies\begin{pmatrix}z\\-2y\\x\end{pmatrix}=\lambda\begin{pmatrix}2x\\2y\\2z\end{pmatrix}$$Wegen \(\lambda\ne0\) (sonst würden wir die Nebenbedingung ignorieren) gilt:$$-2y=\lambda\cdot2y\implies(\lambda+1)\cdot2y=0\implies\pink{\lambda=-1\;\lor y=0}$$
Das ruft laut nach einer Fallunterscheidung.
1. Fall: \(\pink{\lambda=-1}\)$$z=-2x\;\land\; x=-2z\implies z=-2x=-2(-2z)=4z\implies z=0\implies x=0$$Einsetzen in die Nebenbedingung liefert:$$0^2+y^2+0^2=2\implies y=\pm\sqrt2$$Dieser Fall liefert und also 2 Extrema-Kandidaten:$$K_1(0|-\sqrt2|0)\quad;\quad K_2(0|\sqrt2|0)$$
2. Fall: \(\pink{y=0}\)$$z=\lambda\cdot2x\;\land\; x=\lambda\cdot 2z\implies\frac{z}{x}=\frac{\lambda\cdot2x}{\lambda\cdot2z}=\frac xz\implies x^2=z^2$$Einsetzen in die Nebenbedingung liefert:$$x^2+0^2+x^2=2\implies x^2=1\implies z^2=1$$Dieser Fall liefert und also 4 Extrema-Kandidaten:$$K_3(-1|0|-1)\quad;\quad K_4(-1|0|1)\quad;\quad K_5(1|0|-1)\quad;\quad K_6(1|0|1)$$
Einsetzen der 6 Kandidaten liefert:$$f(\vec k_1)=f(\vec k_2)=-2$$$$f(\vec k_3)=f(\vec k_6)=1$$$$f(\vec k_4)=f(\vec k_5)=-1$$
Da nach den absoluten Extrema gefragt ist, fallen \(K_4\) und \(K_5\) raus.
Wir haben globale Minima bei \((0|\pm\sqrt2|0)\) und globale Maxima bei \((\pm1|0|\pm1)\).