0 Daumen
1,6k Aufrufe

In 30 Spielen der regulären Saison der Major League Baseball wurden im Schnitt 119.92 Homeruns pro Spiel erzielt mit einer empirischen Standardabweichung von 11.91. Gehen Sie davon aus, dass die Anzahl der Homeruns normalverteilt ist.

Geben Sie die Länge des 99%-Konfidenzintervalls für die erwartete Anzahl Homeruns pro Spiel an.

Kann mir bitte jemand den Rechenweg zeigen? ich verstehe Konfidenzintervalle noch nicht ganz... danke!

Avatar von

1 Antwort

0 Daumen

Hier meine Rechnungen

Untergrenze: 119,92 - 2,7563859036706 * 11,91 / √30 = 113,92635309558
Obergrenze: 119,92 + 2,7563859036706 * 11,91 / √30 = 125,91364690442
Länge: 2 * 2,7563859036706 * 11,91 / √30 = 11,9872938088394

Benutze die t-Verteilung mit 30-1 = 29 Freiheitsgraden zum zweiseitigen 99% Konfidenzintervall.

Avatar von 489 k 🚀

Vielen Dank! Aber warum nimmst du für Alpha= 0.995 in der t-Verteilungstabelle und nicht Alpha=0.99 ?

Wie ich geschrieben habe solltest du den zweiseitigen Vertrauensbereich nehmen:

blob.png

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community