die Likelihood-Funktion lautet
\( L(p) = (p^2)^{n_1} (2p(1-p))^{n_2} ((1-p)^2)^{n_3} \).
Die Log-Likelihood-Funktion ist folglich
\( l(p) = 2n_1 \log(p) + n_2 \log(2p(1-p)) + 2n_3 \log(1-p) \).
Die Ableitung der Log-Likelihood-Funktion ist
\( l'(p) = \frac{2n_1}{p} + \frac{n_2(1-2p)}{p(1-p)} - \frac{2n_3}{1-p} \).
Die Nullstelle dieser Ableitung erfüllt
\( 0 = 2n_1(1-p) + n_2(1-2p) - 2n_3p \)
oder
\( 0 = -p(2n_1 + 2n_2 + 2n_3) + 2n_1 + n_2 \).
Es folgt
\( p = \frac{2n_1 + n_2}{2n} \).
Der Erwartungswert von \( p \) lautet
\( \mathbb{E}[p] = \mathbb{E}[\frac{n_1}{n}] + \frac{1}{2} \mathbb{E}[\frac{n_2}{n}] \)
\( = p^2 + \frac{1}{2} 2p(1-p) = p^2 + p - p^2 = p \).
Der Schätzer ist folglich erwartungstreu. Beachte, dass das \( p \) links in \( \mathbb{E}[p] \) für den Schätzer steht. Das \( p \) rechts steht für den Parameter. Du kannst den Schätzer auch kennzeichnen, z.B. durch \( p_0 \), \( p_S \) oder \( \hat p \), um diese Doppeldeutigkeit zu vermeiden.
Mister
PS: Antwort inspiriert durch http://www.ruhr-uni-bochum.de/imperia/md/content/mathematik3/lehre/ss09/statistik1/musterl__sung_blatt6.pdf, Aufgabe 4.