0 Daumen
1,3k Aufrufe

In meinem Skript (nicht urheberrechtlich geschützt) bin ich an folgendem Beweis hängen geblieben. Meine Frage lautet konkret, warum  < |a - a'|/2 aus den gegebenen Annahmen folgt . Der Rest des Beweises ist mir völlig einleuchtend - es hakt nur an dieser Stelle. Ich würde mich sehr über einen Hinweis oder einen Tipp freuen!

blob.png

Vielen Dank für eure Mühe!

Avatar von

1 Antwort

+1 Daumen
 
Beste Antwort

Aus der Existenz eines Grenzwertes folgt doch, dass ab einem bestimmten Index n alle Folgenglieder in der Epsilon-Umgebung des Grenzwertes liegen. Würde es zwei Grenzwerte geben, müssten ab einem bestimmten n alle Folgenglieder in der Epsilon-Umgebung BEIDER Grenzwerte liegen.

Das ist prinzipiell erst mal möglich wenn Epsilon so groß gewählt wird, dass sich die Umgebungen beider "Grenzwerte" überlappen. Dann könnten ab einem bestimmten n die Folgenglieder alle im Überlappungsbereich beider Epsilonumgebungen liegen.

Nun ist eine Zahl aber nur dann Grenzwert, wenn in JEDER (noch so schmalen) Epsilonumgebung ab einem bestimmten Index n alle Folgenglieder liegen. Wählt man Epsilon nun kleiner als den halben Abstand der angenommenen beiden Grenzwerte, dann überlappen sich die beiden Epsilon-Umgebungen nicht mehr. Wenn also irgendwann alle Zahlen in EINER Epsilon-Umgebung liegen ist es ausgeschlossen, dass sie gleichzeitig auch in der anderen Epsilon-Umgebung liegen.

Avatar von 55 k 🚀

Danke für den Kommentar, jetzt habe ich es kapiert.

Ein anderes Problem?

Stell deine Frage

Willkommen bei der Mathelounge! Stell deine Frage einfach und kostenlos

x
Made by a lovely community