Aufgabe:
In 19 Spielen der regulären Saison der Major League Baseball wurden im Schnitt 105.41 Homeruns pro Spiel erzielt mit einer empirischen Standardabweichung von 10.37. Gehen Sie davon aus, dass die Anzahl der Homeruns normalverteilt ist.Geben Sie die Länge des 99 %-Konfidenzintervalls für die erwartete Anzahl Homeruns pro Spiel an.
Problem/Ansatz:
ich habe hier 12,2558 herausbekommen, stimmt aber nicht? Kann mir wer helfen?
Hier meine Ergebnisse
Untergrenze: 105,41 - 2,8784404727386 * 10,37 / √19 = 98,5620716380607Obergrenze: 105,41 + 2,8784404727386 * 10,37 / √19 = 112,257928361939Länge: 2 * 2,8784404727386 * 10,37 / √19 = 13,6958567238785
Mathecoach wie kommst du auf die Zahl 2,8784404727386?
Den Wert entnimmt man der t-Verteilung, weil wir ja nur die Standardabweichung der Stichprobe haben und nicht der Grundgesamtheit.
Ein anderes Problem?
Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos