Ich nehme mal an, die Zufallsvariablen sind gleichverteilt (ansonsten stimmt es nicht) mit \( \mathbf{E} X_{ 1} = \mu \). Du sollst zeigen, dass für jedes fixe
\( \delta > 0 \)
\(\begin{aligned} \lim_{n \to \infty } \mathbf{P}( | \overline{ X} _{ n} - \mu | > \delta ) = 0. \end{aligned}\)
Mittels der Markov Ungleichung erhält man
\(\begin{aligned} \mathbf{P}( | \overline{ X} _{ n} - \mu | > \delta ) = \mathbf{P}( ( \overline{ X} _{ n} - \mu )^{ 2} > \delta ^{ 2} ) \leqslant \frac{ \mathbf{E} ( \overline{ X} _{ n} - \mu ) ^{ 2}}{ \delta ^{ 2}} . \end{aligned}\)
Untersuchen wir mal den Zähler:
\(\begin{aligned} \mathbf{E} \biggl( \frac{1}{ n} \sum_{ 1\leqslant i\leqslant n} X_{ i} - \mu \biggr) ^{ 2}&= \frac{1}{ n ^{ 2}} \sum_{ 1\leqslant i, j\leqslant n} \mathbf{E} X_{ i} X_{ j} - \frac{ 2\mu }{ n} \sum_{ 1\leqslant i\leqslant n} \mathbf{E} X_{ i} + \mu ^{ 2} \\ &= \frac{1}{ n ^{ 2}} \sum_{ 1\leqslant i, j\leqslant n} \mathbf{E} X_{ i} X_{ j} - \mu ^{ 2}. \end{aligned}\)
Die Annahme in der Aufgabenbeschreibung lässt sich schreiben als
\(\begin{aligned} | \text{cov}( X_{ i} , X_{ j} ) | = | \mathbf{E} X_{ i} X _{ j} - ( \mathbf{E} X _{ i} ) ( \mathbf{E} X _{ j} ) | = | \mathbf{E} X _{ i} X_{ j} - \mu ^{ 2} | \leqslant r _{ | ( i, j) | } . \end{aligned}\)
Das können wir jetzt in (1) einsetzen und erhalten
\(\begin{aligned} \frac{1}{ n ^{ 2}} \biggl( \sum_{ 1\leqslant i, j\leqslant n} \mathbf{E} X_{ i} X_{ j} - n ^{ 2}\mu ^{ 2}\biggr) = \frac{1}{ n ^{ 2}} \sum_{ 1\leqslant i,j\leqslant n}^{ } ( \mathbf{E} X_{ i} X_{ j} - \mu ^{ 2} ) = \frac{1}{ n^{ 2}} \sum_{ 1\leqslant i, j\leqslant n}^{ } \text{cov}( X_{ i} , X_{ j} ) . \end{aligned}\)
Die Doppelsumme auf der rechten Seite kannst du nun aber beliebig klein machen: Ist \( \varepsilon > 0 \) beliebig, so wählst du
\( N > 0 \) mit \( r _{ | ( i, j) | } < \varepsilon \) für \( | ( i, j) | \geqslant N \) (ich nehme jetzt mal an, \( | ( i, j) | = | i - j | \)). Nun gilt also (wir können ja \( n \) unabhängig von \( \varepsilon \) beliebig gross wählen)
\(\begin{aligned} \frac{1}{ n ^{ 2}} &\sum_{ i = 1}^{ n} \sum_{ j = 1}^{ n} \text{cov}( X_{ i} , X_{ j} ) \\ &=\frac{1}{ n^{ 2}}\biggl( 2 \sum_{ | i - j | \leqslant N }^{} \text{cov}( X_{ i} , X_{ j} ) + \sum_{ i = 1}^{ n} \sum_{ j = i + N}^{ n}\text{cov}( X_{ i} , X_{ j} ) + \sum_{ j = 1}^{ n} \sum_{ i = j + N}^{ n} \text{cov}( X_{ i} , X_{ j} ) \biggr)\\&\leqslant \frac{1}{ n^{ 2}} ( 2 N n \| X_{ 1} \|_{ L^{2}( \mathbf{R})} + 2 n ^{ 2} \varepsilon ) = \frac{ 2N\| X_{ 1} \|_{ L^{2}( \mathbf{R})}}{ n} + 2 \varepsilon .\end{aligned}\)
Für \( n \to \infty \) ist das also \( \leqslant 2 \varepsilon \), und da \( \varepsilon > 0 \) beliebig klein gewählt werden kann, folgt
die Aussage.