0 Daumen
1,7k Aufrufe

Aufgabe:

Ich benötige bitte Hilfe mit dem Vorgehen! Dankeschön im Voraus.

Text erkannt:

Sei \( f:] 0, \infty[\rightarrow \mathbb{R} \) gegeben durch \( f(x):=\ln (1+x) \). Beweisen Sie die folgende Ungleichung
$$ \left.x-\frac{x^{2}}{2}<\ln (1+x)<x, \text { für } x \in\right] 0, \infty[ $$
a) mit Hilfe der Taylorpolynome \( T_{1}(x) \) und \( T_{2}(x) \) mit Entwicklungspunkt \( x_{0}=0 \).
b) mit Hilfe des Monotoniekriteriums (die linke Ungleichung) und mit Hilfe des Mittelwertsatzes (die rechte Ungleichung).

Avatar von

für b) wäre auch schon eine Hilfe, denke ich habe a) mittlerweile raus

Für \(x\ge0\) definiere \(f(x):=\ln(1+x)-x+\tfrac{x^2}2\) und stelle fest, dass \(f(0)=0\) und \(f^\prime(x)=\tfrac{x^2}{1+x}>0\) für alle \(x>0\) ist.

Könntest du mir die Lösung bitte schicken? Hab leider keine Ahnung wie man da rangeht

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community