0 Daumen
258 Aufrufe

Aufgabe:

Ein Investor hat 10 000 GE, welche er in zwei Wertpapiere investieren kann. Die erwartete Rendite der beiden Wertpapiere beträgt 5% bzw. 4%. Das Risiko, gemessen durch die Varianz der Renditen, ist gegeben durch 2*x1^2 + x2^2 + (x1 + x2)^2, wobei xi (i = 1, 2) die Beträge in Einheiten von 1 000 GE bezeichnen. Der Investor möchte eine möglichst große erwartete Rendite bei möglichst kleinem Risiko erzielen. Um dieses Ziel zu erreichen maximiert er folgende Präferenzfunktion
f ( x 1 , x 2 ) = 5 x1 + 4 x2 − 1/4*(2 x1^2 + x2^2 + ( x1 + x2 )^2 
Ermitteln Sie die optimale Lösung mit der Methode von Lagrange!


Problem/Ansatz:

ich bräuchte Hilfe bei den Nebebedingungen. Als erste hätte ich das x1+x2=10 und dann hätte ich noch, das 2*x1^2 + x2^2 + (x1 + x2)^2=0 weil das Risiko ja möglichst niedrig sein soll. Ist das richtig? Ich bin mir sehr unsicher, bei der zweiten Nebenbedingung.

Ich würde mich sehr über Hilfe freuen.

Avatar von

Du solltest Exponenten hoch- und Indizes tiefstellen. Dann wirst Du verstanden.


... bei möglichst kleinem Risiko

bedeutet nicht Nullrisiko. Es gibt keine risikolosen Anlagen.

1 Antwort

0 Daumen
Um dieses Ziel zu erreichen maximiert er folgende Präferenzfunktion

Ich denke es ist einfach die Präferenzfunktion zu maximieren. In dieser Funktion ist ja bereits der Term für das Risiko eingepreist. Als Nebenbedingung nimmst du das x1 plus x2 dem Gesamtkapital entsprechen müssen.

Ich komme auf eine Investition von 4000 GE und 6000 GE in die beiden Wertpapiere.

Avatar von 489 k 🚀

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community