0 Daumen
977 Aufrufe

Screenshot 2021-05-28 183619.png

Text erkannt:

Wir betrachten eine zweim al stetig partiell differenzierbare Funktion \( f: D \rightarrow \mathbb{R} \operatorname{mit} D=\left\{(x, y) \in \mathbb{R}^{2} \mid x>-1, y>0\right\} . \) Es gilt weiterhin
\( f(0,1)=0 \)
$$ \begin{array}{l} \operatorname{grad}_{(x, y)} f=\left(\begin{array}{c} \ln \left(\frac{x+1}{y}\right)+\frac{x}{x+1} \\ -\frac{x}{y} \end{array}\right) \\ \operatorname{Hess}_{(x, y)} f=\left(\begin{array}{cc} \frac{x+2}{(x+1)^{2}} & -\frac{1}{y} \\ -\frac{1}{y} & \frac{x}{y^{2}} \end{array}\right) \end{array} $$
Bestim men Sie das Taylorpolynom 2.Ordnung \( T_{2}(f) \) von \( f \) im Entwicklungspunkt \( (0,1) \).
Dann ist \( \left(T_{2} f\right)(x, y)= \)

Aufgabe:


Problem/Ansatz:hallo,

ich habe in dieser Frage alles berechnet also g und hesse matrix dann T1 auch berechnet aber beim T2 habe ich Problem könnte jemand bitte mir dazu helfen.

bedanke mich

Avatar von

1 Antwort

0 Daumen

Hallo :-)

ich habe in dieser Frage alles berechnet also g und hesse matrix dann T1 auch berechnet aber beim T2 habe ich Problem könnte jemand bitte mir dazu helfen.

Gradient und Hessematrix hast du doch schon gegeben.

Jetzt musst du nur noch alles einsetzen:

$$T_2(x,y)=f(0,1)+(\operatorname{grad}_{(0,1)}(f))^T\cdot \begin{pmatrix}x-0\\y-1 \end{pmatrix}+\frac{1}{2}\cdot (x-0,y-1)\cdot \operatorname{Hess}_{(0,1)}(f)\cdot \begin{pmatrix}x-0\\y-1 \end{pmatrix}=...$$

Avatar von 15 k

vielen Dank aber ich habe zwei anworten deswegen bin verzweiflt also erste Anwort ist

X^2-xy-x und 2. x^2-xy/2+x/2 könntest du bitte mir sagen welche richtig wäre?ich mach vielleicht beim matrix multiplikation.

ich bedanke vielmals

Beide stimmen nicht. Richtig ist \(x^2-xy+x\).

danke dir also ja schreib fehler da wollte ich +x schreiben danke dir

Gerne :-)________

hast du ne Idee wie berechnet man den Fehler von Taylorplynom 2. Ordnung?

ich bedanke mich

Dafür brauchst die dritte Ableitung von \(f\). Die lässt sich aber nicht mehr so einfach hinschreiben. Bei mehrdimensionalen Funktionen erhöht sich mit jeder Stufe ihrer Ableitung auch die Anzahl an Freiheitsgraden der Ableitung. Die Ausgangsfunktion hat Stufe Null als Ableitung, der Gradient Stufe eins der Ableitung, die Hesse-Matrix die zweite Stufe und die dritte Ableitung kannst du dir als würfelförmige Matrix vorstellen, usw... Damit beschäftigt sich dann die Tensorrechnung genauer. Tensoren sind einfach nochmals eine Verallgemeinerung von dem, was du schon kennst: Skalare, Vektoren, Matrizen.

Ein Skalar ist ein Tensor Nullter Stufe, Ein Vektor ein Tensor erster Stufe, eine Matrix ein Tensor zweiter Stufe,...

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community