0 Daumen
330 Aufrufe

Sei (Xi) eine Folge unabhängiger Bernoulli-verteilter Zufallsvariablen mit Erfolgswahrscheinlichkeit p. Wir bezeichnen mit S1 die Anzahl der Misserfolge vor dem ersten Erfolg, mit S2 die Anzahl der Misserfolge zwischen dem ersten und dem zweiten Erfolg, und allgemein mit Sk die Anzahl der Misserfolge zwischen dem (k-1)ten und dem k-ten Erfolg. Zeigen Sie, dass die Zufallsvariablen S1.....Snstochastisch unabhängig sind und bestimmen Sie die marginalen Wahrscheinlichkeitsfunktionen.

 

Ich habe mir folgende Ding notiert, um einen Überblick zu bekommen:
Bernoulliverteilte Zufallsvariablen mit Erfolgswahrscheinlichkeit p
S1: #Misserfolge vor 1. Erfolg
S2: #Misserfolge zwischen dem 1. und 2. Erfolg
Sk: #Misserfolge zwischen dem (k-1)ten und k-tem Erfolg

S1 bis Sn sind stochastik unabhängig, wenn gilt:

P(S1=s1,S2=s2,....,Sn=sn) = P(S1=s1)*P(S2=s2)*....*P(Sn=sn)

Aber wie weißt man das jetzt nach? Hätte ich nur S1 und S2 wüsste ich, was zu tun ist. Aber da das Ganze jetzt bis Sn geht, weiß ich nicht, wie ich das aufschreiben soll......

Avatar von

1 Antwort

0 Daumen

Antwort mit KI erzeugt

Aufgabe:

Sei \((X_i)\) eine Folge unabhängiger Bernoulli-verteilter Zufallsvariablen mit Erfolgswahrscheinlichkeit \(p\). Wir bezeichnen mit \(S_1\) die Anzahl der Misserfolge vor dem ersten Erfolg, mit \(S_2\) die Anzahl der Misserfolge zwischen dem ersten und dem zweiten Erfolg, und allgemein mit \(S_k\) die Anzahl der Misserfolge zwischen dem \((k-1)\)-ten und dem \(k\)-ten Erfolg. Zeigen Sie, dass die Zufallsvariablen \(S_1, \ldots, S_n\) stochastisch unabhängig sind und bestimmen Sie die marginalen Wahrscheinlichkeitsfunktionen.

Lösung:

Um zu zeigen, dass die Zufallsvariablen \(S_1, \ldots, S_n\) stochastisch unabhängig sind, müssen wir nachweisen, dass

\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = P(S_1 = s_1) \cdot P(S_2 = s_2) \cdot \ldots \cdot P(S_n = s_n) \)

für alle möglichen Werte \(s_1, s_2, \ldots, s_n\).

Zunächst einmal ist es hilfreich zu erkennen, dass \(S_k\) die Anzahl der Misserfolge zwischen dem \((k-1)\)-ten und \(k\)-ten Erfolg ist. Dies bedeutet, dass \(S_k\) die Anzahl der Bernoulli-Versuche mit Ergebnis "Misserfolg" (also \(X_i = 0\)) vor dem \(k\)-ten "Erfolg" (also \(X_i = 1\)) darstellt.

Die Anzahl der Misserfolge \(S_k\) hat daher eine geometrische Verteilung mit Parameter \(p\), d.h.,

\( P(S_k = s_k) = (1-p)^{s_k} p \)

für \(s_k \in \{0, 1, 2, \ldots\}\). Diese Verteilung besagt, dass \(s_k\) Misserfolge (0-en) auftreten, gefolgt von einem Erfolg (1).

Schrittweise Ableitung der stochastischen Unabhängigkeit:

1. Betrachtung der Abfolge der Erfolge und Misserfolge: Die Bernoulli-Experimente sind unabhängig. Somit beeinflusst die Anzahl der Misserfolge vor einem Erfolg die Anzahl der Misserfolge vor dem nächsten Erfolg nicht.

2. Erzeugung eines speziellen Ereignisses: Betrachten wir das kombinierte Ereignis, dass \(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n\). Dies bedeutet, dass die gesamte Folge der betrachteten Bernoulli-Experimente wie folgt aussieht:
- Erst gibt es \(s_1\) Misserfolge, gefolgt von einem Erfolg.
- Dann gibt es \(s_2\) Misserfolge, gefolgt von einem Erfolg.
- Und so weiter, bis zum \(n\)-ten Erfolg.

3. Berechnen der Kombinierten Wahrscheinlichkeit: Da die Bernoulli-Experimente unabhängig sind, multiplizieren wir die Wahrscheinlichkeiten der einzelnen Abschnitte:

\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = P(\text{\(s_1\) Misserfolge, 1 Erfolg}) \cdot P(\text{\(s_2\) Misserfolge, 1 Erfolg}) \cdot \ldots \cdot P(\text{\(s_n\) Misserfolge, 1 Erfolg}) \)

Aufgrund der geometrischen Verteilung der \(S_k\):

\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = [(1-p)^{s_1} p] \cdot [(1-p)^{s_2} p] \cdot \ldots \cdot [(1-p)^{s_n} p] \)

\( = (1-p)^{s_1 + s_2 + \ldots + s_n} p^n \)

4. Berechnung der marginalen Wahrscheinlichkeiten: Die marginale Wahrscheinlichkeit, dass \(S_k\) eine bestimmte Anzahl \(s_k\) von Misserfolgen gibt, ist geometrisch verteilt mit:

\( P(S_k = s_k) = (1-p)^{s_k} p \)

Der gemeinsame Ausdruck für die Wahrscheinlichkeit teilt sich daher genauso auf:

\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = \prod_{k=1}^n P(S_k = s_k) \)

Dies zeigt die benötigte stochastische Unabhängigkeit.

Zusammenfassung:
1. Die Anzahl der Misserfolge \(S_k\) zwischen dem \((k-1)\)-ten und \(k\)-ten Erfolg ist geometrisch verteilt mit Parameter \(p\).
2. Die Zufallsvariablen \(S_1, S_2, \ldots, S_n\) sind stochastisch unabhängig, da

\( P(S_1 = s_1, S_2 = s_2, \ldots, S_n = s_n) = \prod_{k=1}^n P(S_k = s_k) \)
Avatar von

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community