Zu (a)
$$ E(Y_n) = \sum_{i=1}^n \lambda_i E(X_i) = E(X) \sum_{i=1}^n \lambda_i = E(X) $$
Zu (b)
$$ 1 = \left( \sum_{i=1}^n \lambda_i \right)^2 \le \left( \sum_{i=1}^n \lambda_i^2 \sigma_i^2 \right) \left( \sum_{i=1}^n \frac{1}{\sigma_i^2} \right) $$ Also gilt $$ \sum_{i=1}^n \lambda_i^2 \sigma_i^2 \ge \frac{1}{\sum_{i=1}^n \frac{1}{\sigma_i^2}} $$ wegen der Cauchy-Schwarzschen Ungleichung.
$$ \sum_{i=1}^n \lambda_i^2 \sigma_i^2 $$ nimmt das Minimum an, wenn gilt
$$ \lambda_i \sigma_i = \frac{\alpha }{\sigma_i} $$ (ebenfalls Cauchy-Schwarzsche Ungleichung)
Wegen $$ \sum_{i=1}^n \lambda_i = 1 $$ folgt $$ \alpha = \frac{1}{ \sum_{i=1}^n \frac{1}{\sigma_i^2} } $$ also
$$ \lambda_i = \frac{ \frac{1}{\sigma_i^2} } {\sum_{i=1}^n \frac{1}{\sigma_i^2 } } $$
In unserem Fall gilt \( \sigma_i = \sigma \) für alle \( i = 1 ... n \) also $$ \lambda_i = \frac{1}{n} $$