Ich hätte eine Frage bzgl. der "Fisher Information" bzw. Cramer-Rao Schranke.
Die Definition ist ja I(Θ)=-E(d^2/dΘ log(f(x_Θ)). Die 2. Ableitung der Score Funktion innerhalb der Klammer. Bezüglich log(f(x_Θ) handelt es sich ja um die log likelihood-Funktion. Seien X1,...,X_n i.i.d., um die Score Funktion herzuleiten bildet man ja normal die erste Ableitung der log likelihood Funktion. Muss man aber generell über alle x_i summieren, sprich ∑ log(f(x_i)) oder nur für ein x_i?