0 Daumen
293 Aufrufe

Ich bräuchte Hilfe bei folgender Aufgabenstellung:

Es soll folgendes lineare Modell gelten:

y = β0 + β1*x1 + β2 * x2 + e

Stellen Sie sich vor, Sie passen anstelle dieses Modells das unterangepasste Modell

y = β0 + β1*x1 + e an die Daten an. Sie bekommen dadurch verzerrte Schätzer für β0 und β1. Zeigen Sie, dass die Verzerrung von β1 gegeben ist durch:

bias(β1) = \( \frac{COV(x1;x2)}{VAR(x1)} \) β2

Hinweis: die Designmatrix des richtigen Modells sei X = (X1 X2), die des unterangepassten Modells X1, wobei

X1 = \( \begin{pmatrix} 1 & 1  \\ x11 & x21 \\ ... & ... \\ 1 & xn1\end{pmatrix} \)

X2 = \( \begin{pmatrix} x12\\x22\\...\\xn2\end{pmatrix} \)

Verwenden Sie diese beiden allgemeinen Matrizen zur Bestimmung der Verzerrung.

Avatar von

Ein anderes Problem?

Stell deine Frage

Ähnliche Fragen

0 Daumen
2 Antworten
0 Daumen
1 Antwort
0 Daumen
1 Antwort
0 Daumen
1 Antwort
0 Daumen
0 Antworten

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community