Antwort mit KI erzeugt
Aufgabe:
Sei \((X_i)\) eine Folge unabhängiger Bernoulli-verteilter Zufallsvariablen mit Erfolgswahrscheinlichkeit \(p\). Wir bezeichnen mit \(S_1\) die Anzahl der Misserfolge vor dem ersten Erfolg, mit \(S_2\) die Anzahl der Misserfolge zwischen dem ersten und dem zweiten Erfolg, und allgemein mit \(S_k\) die Anzahl der Misserfolge zwischen dem \((k-1)\)-ten und dem \(k\)-ten Erfolg. Zeigen Sie, dass die Zufallsvariablen \(S_1, \ldots, S_n\) stochastisch unabhängig sind und bestimmen Sie die marginalen Wahrscheinlichkeitsfunktionen.
Lösung:
Um zu zeigen, dass die Zufallsvariablen \(S_1, \ldots, S_n\) stochastisch unabhängig sind, müssen wir nachweisen, dass
\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = P(S_1 = s_1) \cdot P(S_2 = s_2) \cdot \ldots \cdot P(S_n = s_n) \)
für alle möglichen Werte \(s_1, s_2, \ldots, s_n\).
Zunächst einmal ist es hilfreich zu erkennen, dass \(S_k\) die Anzahl der Misserfolge zwischen dem \((k-1)\)-ten und \(k\)-ten Erfolg ist. Dies bedeutet, dass \(S_k\) die Anzahl der Bernoulli-Versuche mit Ergebnis "Misserfolg" (also \(X_i = 0\)) vor dem \(k\)-ten "Erfolg" (also \(X_i = 1\)) darstellt.
Die Anzahl der Misserfolge \(S_k\) hat daher eine geometrische Verteilung mit Parameter \(p\), d.h.,
\( P(S_k = s_k) = (1-p)^{s_k} p \)
für \(s_k \in \{0, 1, 2, \ldots\}\). Diese Verteilung besagt, dass \(s_k\) Misserfolge (0-en) auftreten, gefolgt von einem Erfolg (1).
Schrittweise Ableitung der stochastischen Unabhängigkeit:
1.
Betrachtung der Abfolge der Erfolge und Misserfolge: Die Bernoulli-Experimente sind unabhängig. Somit beeinflusst die Anzahl der Misserfolge vor einem Erfolg die Anzahl der Misserfolge vor dem nächsten Erfolg nicht.
2.
Erzeugung eines speziellen Ereignisses: Betrachten wir das kombinierte Ereignis, dass \(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n\). Dies bedeutet, dass die gesamte Folge der betrachteten Bernoulli-Experimente wie folgt aussieht:
- Erst gibt es \(s_1\) Misserfolge, gefolgt von einem Erfolg.
- Dann gibt es \(s_2\) Misserfolge, gefolgt von einem Erfolg.
- Und so weiter, bis zum \(n\)-ten Erfolg.
3.
Berechnen der Kombinierten Wahrscheinlichkeit: Da die Bernoulli-Experimente unabhängig sind, multiplizieren wir die Wahrscheinlichkeiten der einzelnen Abschnitte:
\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = P(\text{\(s_1\) Misserfolge, 1 Erfolg}) \cdot P(\text{\(s_2\) Misserfolge, 1 Erfolg}) \cdot \ldots \cdot P(\text{\(s_n\) Misserfolge, 1 Erfolg}) \)
Aufgrund der geometrischen Verteilung der \(S_k\):
\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = [(1-p)^{s_1} p] \cdot [(1-p)^{s_2} p] \cdot \ldots \cdot [(1-p)^{s_n} p] \)
\( = (1-p)^{s_1 + s_2 + \ldots + s_n} p^n \)
4.
Berechnung der marginalen Wahrscheinlichkeiten: Die marginale Wahrscheinlichkeit, dass \(S_k\) eine bestimmte Anzahl \(s_k\) von Misserfolgen gibt, ist geometrisch verteilt mit:
\( P(S_k = s_k) = (1-p)^{s_k} p \)
Der gemeinsame Ausdruck für die Wahrscheinlichkeit teilt sich daher genauso auf:
\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = \prod_{k=1}^n P(S_k = s_k) \)
Dies zeigt die benötigte stochastische Unabhängigkeit.
Zusammenfassung:
1. Die Anzahl der Misserfolge \(S_k\) zwischen dem \((k-1)\)-ten und \(k\)-ten Erfolg ist geometrisch verteilt mit Parameter \(p\).
2. Die Zufallsvariablen \(S_1, S_2, \ldots, S_n\) sind stochastisch unabhängig, da
\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = \prod_{k=1}^n P(S_k = s_k) \)