0 Daumen
105 Aufrufe

Aufgabe:

Seien (Xi)i∈ℕ reelle Zufallsvariablen in L2 mit |cov (Xi , Xj)| ≤ r |i,j| für i,j ∈ℕ und r ist nicht negative Folge, die gegen 0 konvergiert. Zeigen Sie, dass das (schwache) Gesetz der großen Zahlen auch unter diesen Annahmen gilt.


Ich hab leider gar keine Ahnung, wie ich hier anfangen soll und wäre über jeden Hinweis/Ansatz dankbar!

Avatar von

1 Antwort

0 Daumen
 
Beste Antwort


Ich nehme mal an, die Zufallsvariablen sind gleichverteilt (ansonsten stimmt es nicht) mit \( \mathbf{E} X_{ 1}  = \mu \). Du sollst zeigen, dass für jedes fixe
\( \delta > 0 \)
\(\begin{aligned} \lim_{n \to \infty }  \mathbf{P}( | \overline{ X} _{ n} - \mu | > \delta ) = 0. \end{aligned}\)
Mittels der Markov Ungleichung erhält man
\(\begin{aligned} \mathbf{P}( | \overline{ X} _{ n} - \mu | > \delta ) = \mathbf{P}( ( \overline{ X} _{ n} - \mu )^{ 2} > \delta ^{ 2}  )  \leqslant \frac{ \mathbf{E} ( \overline{ X} _{ n} - \mu ) ^{ 2}}{ \delta ^{ 2}} . \end{aligned}\)
Untersuchen wir mal den Zähler:
\(\begin{aligned}   \mathbf{E} \biggl( \frac{1}{ n} \sum_{ 1\leqslant i\leqslant n} X_{ i} - \mu \biggr) ^{ 2}&= \frac{1}{ n ^{ 2}} \sum_{ 1\leqslant i, j\leqslant n} \mathbf{E} X_{ i} X_{ j} - \frac{ 2\mu }{ n} \sum_{ 1\leqslant i\leqslant n} \mathbf{E} X_{ i}  + \mu ^{ 2} \\ &= \frac{1}{ n ^{ 2}} \sum_{ 1\leqslant i, j\leqslant n} \mathbf{E} X_{ i} X_{ j} - \mu ^{ 2}. \end{aligned}\)
Die Annahme in der Aufgabenbeschreibung lässt sich schreiben als
\(\begin{aligned} | \text{cov}( X_{ i} , X_{ j} )  | = | \mathbf{E} X_{ i} X _{ j} - ( \mathbf{E} X _{ i} ) ( \mathbf{E} X _{ j} )  | = | \mathbf{E} X _{ i} X_{ j} - \mu ^{ 2} | \leqslant r _{ | ( i, j)  | } . \end{aligned}\)
Das können wir jetzt in (1) einsetzen und erhalten
\(\begin{aligned} \frac{1}{ n ^{ 2}} \biggl(  \sum_{ 1\leqslant i, j\leqslant n} \mathbf{E} X_{ i} X_{ j} - n ^{ 2}\mu ^{ 2}\biggr) = \frac{1}{ n ^{ 2}} \sum_{ 1\leqslant i,j\leqslant n}^{ } ( \mathbf{E} X_{ i} X_{ j} - \mu ^{ 2} ) = \frac{1}{ n^{ 2}} \sum_{ 1\leqslant i, j\leqslant n}^{ } \text{cov}( X_{ i} , X_{ j} ) . \end{aligned}\)
Die Doppelsumme auf der rechten Seite kannst du nun aber beliebig klein machen: Ist \( \varepsilon > 0 \) beliebig, so wählst du
\( N > 0 \) mit \( r _{ | ( i, j)  | } < \varepsilon \) für \( | ( i, j)  | \geqslant N \) (ich nehme jetzt mal an, \( | ( i, j)  | = | i - j | \)). Nun gilt also (wir können ja \( n \) unabhängig von \( \varepsilon \) beliebig gross wählen)
\(\begin{aligned} \frac{1}{ n ^{ 2}} &\sum_{ i = 1}^{ n} \sum_{ j = 1}^{ n} \text{cov}( X_{ i} , X_{ j} )  \\ &=\frac{1}{ n^{ 2}}\biggl(  2 \sum_{ | i - j |   \leqslant N }^{} \text{cov}( X_{ i} , X_{ j} )  +  \sum_{ i = 1}^{ n} \sum_{ j = i + N}^{ n}\text{cov}( X_{ i} , X_{ j} ) + \sum_{ j = 1}^{ n} \sum_{ i = j + N}^{ n} \text{cov}( X_{ i} , X_{ j} )  \biggr)\\&\leqslant \frac{1}{ n^{ 2}} (  2 N n \| X_{ 1} \|_{ L^{2}(  \mathbf{R})}  + 2 n ^{ 2} \varepsilon ) = \frac{ 2N\| X_{ 1} \|_{ L^{2}(  \mathbf{R})}}{ n} + 2 \varepsilon .\end{aligned}\)

Für \( n \to \infty \) ist das also \( \leqslant 2 \varepsilon \), und da \( \varepsilon > 0 \) beliebig klein gewählt werden kann, folgt
die Aussage.


Avatar von 4,8 k

Ein anderes Problem?

Stell deine Frage

Ähnliche Fragen

0 Daumen
2 Antworten
0 Daumen
0 Antworten
0 Daumen
0 Antworten
0 Daumen
0 Antworten

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community