Aufgabe:
Ein Investor hat 10 000 GE, welche er in zwei Wertpapiere investieren kann. Die erwartete Rendite der beiden Wertpapiere beträgt 5% bzw. 4%. Das Risiko, gemessen durch die Varianz der Renditen, ist gegeben durch 2*x1^2 + x2^2 + (x1 + x2)^2, wobei xi (i = 1, 2) die Beträge in Einheiten von 1 000 GE bezeichnen. Der Investor möchte eine möglichst große erwartete Rendite bei möglichst kleinem Risiko erzielen. Um dieses Ziel zu erreichen maximiert er folgende Präferenzfunktion
f ( x 1 , x 2 ) = 5 x1 + 4 x2 − 1/4*(2 x1^2 + x2^2 + ( x1 + x2 )^2
Ermitteln Sie die optimale Lösung mit der Methode von Lagrange!
Problem/Ansatz:
ich bräuchte Hilfe bei den Nebebedingungen. Als erste hätte ich das x1+x2=10 und dann hätte ich noch, das 2*x1^2 + x2^2 + (x1 + x2)^2=0 weil das Risiko ja möglichst niedrig sein soll. Ist das richtig? Ich bin mir sehr unsicher, bei der zweiten Nebenbedingung.
Ich würde mich sehr über Hilfe freuen.