Aloha :)
Wir sollen eine Funktion \(f:\mathbb R_+^n\to\mathbb R\) unter der Nebenbedingung \(g\) optimieren:
$$f(x_1,\ldots,x_n)=\prod\limits_{k=1}^n x_k\quad;\quad g(x_1,\ldots,x_n)=\sum\limits_{k=1}^n x_k-\text{const}=0$$
Nach Lagrange muss der Gradient der zu optimierenden Funktion \(f\) eine Linearkombination der Gradienten aller Nebenbedingungen sein:$$\operatorname{grad}f=\lambda\,\operatorname{grad}g$$Für die \(i\)-te Komponente dieser Gradientengleichung gilt:
$$\frac{\partial f}{\partial x_i}=\frac{f(x_1,\ldots,x_n)}{x_i}\;\;;\;\;\frac{\partial g}{\partial x_i}=1\;\implies\;\frac{f(x_1,\ldots,x_n)}{x_i}=\lambda\;\implies\; x_i=\frac{f(x_1,\ldots,x_n)}{\lambda}$$Ein Extremum ist also erreicht, wenn alle \(x_i\) gleich groß sind. Wegen der Nebenbedingung heißt dies:$$x_i=\frac{\text{const}}{n}=\frac{1}{n}\sum\limits_{i=1}^n x_k\eqqcolon \overline x$$
Wir überlegen uns noch, ob das Extermum ein Minimum oder ein Maximum ist. Das Extremum ist das \(n\)-fache Produkt der Mittelwerte \(\overline x\). An diesem Extremum rütteln wir ein bisschen, indem wir den ersten Faktor um ein \(0<\varepsilon<\overline x\) verringern und den letzten Faktor entsprechend erhöhen, weil die Summe aller Faktoren ja laut Nebenbedingung konstant ist:$$(\overline x-\varepsilon)\cdot\overline x^{n-2}\cdot(\overline x+\varepsilon)=\overline x^{n-2}(\overline x-\varepsilon)(\overline x+\varepsilon)=\overline x^{n-2}(\overline x^2-\varepsilon^2)<\overline x^{n}$$
Das Extermum ist also ein Maximum, sodass gilt:$$\prod\limits_{k=1}^n x_k\le\overline x\,^n\quad;\quad \overline x=\frac{1}{n}\sum\limits_{k=1}^n x_i$$Ziehen wir noch die \(n\)-te Wurzel, bekommen wir:$$\sqrt[n]{\prod\limits_{k=1}^n x_k}\le\overline x=\frac{1}{n}\sum\limits_{k=1}^n x_i$$