Aloha :)
Willkommen in der Mathelounge... \o/
Hier geht es darum, eine Funktion$$U(x;y)=\left(x^{0,4}+y^{0,4}\right)^{\frac{1}{0,4}}=\left(x^{\frac25}+y^{\frac25}\right)^{\frac52}\to\text{Optimum}$$unter einer konstanten Nebenbedingung$$g(x;y)=2x+y\stackrel!=240$$zu optimieren.
Nach Lagrange muss in einem Optimum der Gradient der zu optimierenden Funktion eine Linearkombination der Gradienten aller Nebenbedingungen sein. Da es hier nur eine Nebenbedingung gibt, heißt das:$$\operatorname{grad}U(x;y)\stackrel!=\lambda\cdot\operatorname{grad} g(x;y)\quad;\quad\lambda\ne0$$Der Lagrange-Multiplikator \(\lambda\) darf natürlich nicht Null sein, denn dann würden wir die Nebenbedingung ignorieren und das Optimum ohne Nebenbedinung bestimmen.
Zur Bestimmung der partiellen Ableitungen von \(U\) verwenden wir die Kettenregel:$$\frac{\partial U}{\partial x}=\frac{\partial}{\partial x}\left(\pink{x^{\frac25}}+y^{\frac25}\right)^{\frac52}=\frac52\left(\pink{x^{\frac25}}+y^{\frac25}\right)^{\frac32}\cdot\pink{\frac25x^{-\frac35}}=\left(x^{\frac25}+y^{\frac25}\right)^{\frac32}x^{-\frac35}$$$$\frac{\partial U}{\partial y}=\frac{\partial}{\partial x}\left(x^{\frac25}+\pink{y^{\frac25}}\right)^{\frac52}=\frac52\left({x^{\frac25}}+\pink{y^{\frac25}}\right)^{\frac32}\cdot\pink{\frac25y^{-\frac35}}=\left(x^{\frac25}+y^{\frac25}\right)^{\frac32}y^{-\frac35}$$
Damit können wir die Lagrange-Forderung formulieren:$$\begin{pmatrix}\left(x^{\frac25}+y^{\frac25}\right)^{\frac32}x^{-\frac35}\\[1ex]\left(x^{\frac25}+y^{\frac25}\right)^{\frac32}y^{-\frac35}\end{pmatrix}=\lambda\cdot\binom{2}{1}$$Um den Lagrange-Multiplikator \(\lambda\) zunächst loszuwerden, dividieren wir die Gleichung für die erste Koordinate durch die Gleichung für die zweite Koordinate:$$\frac{\cancel{\left(x^{\frac25}+y^{\frac25}\right)^{\frac32}}x^{-\frac35}}{\cancel{\left(x^{\frac25}+y^{\frac25}\right)^{\frac32}}y^{-\frac35}}=\frac{\cancel{\lambda}\cdot2}{\cancel{\lambda}\cdot1}\implies\frac{x^{-\frac35}}{y^{-\frac35}}=2\implies\left(\frac xy\right)^{-\frac35}=2\implies$$$$\left(\frac yx\right)^{\frac35}=2\implies\frac yx=2^{\frac53}=\sqrt[3]{2^5}=\sqrt[3]{32}\implies\color{blue}y=\sqrt[3]{32}\cdot x$$
Damit ist das Optimierungsproblem gelöst. Wir setzen die blaue Lagrange-Bedingung in die Nebenbedingung ein und erhalten:$$240=2x+y=2x+\sqrt[3]{32}x=\left(2+\sqrt[3]{32}\right)x\implies \color{blue}x=\frac{240}{2+\sqrt[3]{32}}\approx46,3786$$Weiter finden wir:$$240=2{\color{blue}x}+y\implies \color{blue}y=240-\frac{480}{2+\sqrt[3]{32}}\approx147,2428$$
Den Lagrange-Multiplikator lesen wir aus der Lagrange-Bedingung für die 2-te Komponente des Gradienten ab:$$\color{blue}\lambda=\left(x^{\frac25}+y^{\frac25}\right)^{\frac32}y^{-\frac35}\approx2,080969$$
Als maximales Nutzenniveau erhalte ich \(\color{blue}U_{\text{max}}\approx499,433\).