0 Daumen
673 Aufrufe

f(x)= x·e1/x. Bestimmen Sie eine Fehlerabschätzung für |f(x1) - T2 (x1)|. x1=0,9. Könnte mir jemand einen Ansatz geben für die Aufgabe. Soll ich einfach das Restglied berechnen? In meinem Skript ist einfach nur der Beweis angegeben für f(x)= Tn (x) + Rn (x), jedoch keine Beispiele für das Abschätzen.

Avatar von

Wie ist Tn(x) definiert?

Als das n-te Taylorpolynom von f

Mit Entwicklungsstelle x0 = 1 vermutlich?

Ja x_0 =1. Sry, hab ich vergessen zu erwähnen

Für die Berechnung von T_2 und die Bearbeitung von R_2 wirst Du die 3 ersten Ableitungen von f benötigen. Die könntest Du doch mal hier bereitstellen.

Ist denn die explizite Berechnung von T2 tatsächlich erforderlich?

Nein, aber die Ableitungen braucht man für R_2.

1 Antwort

0 Daumen

Korrektur

R2 bestimmen und max |R2| im Intervall (0.9,1) als Abschätzung

Hallo

einfach R3 bestimmen und für ζ den maximalen Wert in (xo,x1) nehmen

lul

Avatar von 108 k 🚀

Hoffentlich steht in FS's Skript nicht theta statt zeta

Nein. Es geht um R_2, nicht um R_3, und |R_2| muss maximal werden (nicht zeta, theta, oder....).

Danke Nudger, ich hab meine Antwort korrigiert.

lul

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community