du erkennst, dass eine Zufallsvariable symmetrisch um \( 1 \) verteilt ist, wenn für ihre Wahrscheinlichkeitsdichte \( f \) gilt
\( f(1-x) = f(1+x) \).
Der Erwartungswert ist in diesem Fall \( 1 \), da
\( \mathbb{E} = \int x f(x) dx = \int (1+x) f(1 + x) dx \)
\( = \int f(1+x) dx + \int_{-\infty}^{0} x f(1+x) dx + \int_{0}^{\infty} x f(1+x) dx \)
\( = 1 + \int_{-\infty}^{0} x f(1+x) dx - \int_{\infty}^{0} x f(1+x) dx \)
\( = 1 + \int_{-\infty}^{0} x f(1+x) dx - \int_{-\infty}^{0} (-x) f(1-x) d(-x) \)
\( = 1 + \int_{-\infty}^{0} x f(1+x) dx - \int_{-\infty}^{0} x f(1+x) dx \)
\( = 1 \)
Allgemeiner ist der Erwartungswert einer Zufallsvariablen \( X \) mit einer Wahrscheinlichkeitsdichte \( f_X(x) \), die um \( a \) symmetrisch ist (also \( f(a + x) = f(a - x)\)), gleich \( a \), spricht \( \mathbb{E}[X] = a \).
Mister