Ich bräuchte Hilfe bei folgender Aufgabenstellung:
Es soll folgendes lineare Modell gelten:
y = β0 + β1*x1 + β2 * x2 + e
Stellen Sie sich vor, Sie passen anstelle dieses Modells das unterangepasste Modell
y = β0 + β1*x1 + e an die Daten an. Sie bekommen dadurch verzerrte Schätzer für β0 und β1. Zeigen Sie, dass die Verzerrung von β1 gegeben ist durch:
bias(β1) = \( \frac{COV(x1;x2)}{VAR(x1)} \) β2
Hinweis: die Designmatrix des richtigen Modells sei X = (X1 X2), die des unterangepassten Modells X1, wobei
X1 = \( \begin{pmatrix} 1 & 1 \\ x11 & x21 \\ ... & ... \\ 1 & xn1\end{pmatrix} \)
X2 = \( \begin{pmatrix} x12\\x22\\...\\xn2\end{pmatrix} \)
Verwenden Sie diese beiden allgemeinen Matrizen zur Bestimmung der Verzerrung.