Antwort mit KI erzeugt
Beweis der Behauptung
Um die gegebene Behauptung zu zeigen, gehen wir schrittweise vor.
Schritt 1: Zeigen, dass \(\inf_{n \geq 1} \frac{a_n}{n}\) existiert
Da \(\inf_{n \geq 1} \frac{a_n}{n}\) sich auf die größte untere Schranke (Infimum) bezieht, müssen wir zuerst zeigen, dass \(\frac{a_n}{n}\) nach unten beschränkt ist oder bestimmt gegen \(-\infty\) divergiert. Betrachten wir die Eigenschaft \(a_{n+m} \leq a_n + a_m\). Für \(m=n\) erhalten wir:
\(a_{2n} \leq 2a_n\)
Daraus ergibt sich für \(n\geq 1\):
\(\frac{a_{2n}}{2n} \leq \frac{a_n}{n}\)
Das zeigt, dass wenn \(\frac{a_n}{n}\) für ein \(n\) existiert, es für jede nachfolgende Verdopplung von \(n\) nicht kleiner wird, wodurch eine untere Grenze impliziert wird (oder die Folge divergiert bestimmt gegen \(-\infty\), wenn solch ein \(n\) nicht existiert).
Schritt 2: Verwendung des Infimums zur weiteren Analyse
Nehmen wir nun an, dass \(\beta = \inf_{n \geq 1} \frac{a_n}{n}\) existiert und nicht \(-\infty\) ist. Wir wollen zeigen, dass \(\frac{a_n}{n}\) gegen \(\beta\) konvergiert.
Für ein beliebiges \(\epsilon > 0\), existiert aufgrund der Definition des Infimums ein \(k\), sodass:
\(\beta \leq \frac{a_k}{k} < \beta + \epsilon\)
Nun betrachten wir \(n > k\) und wählen \(q\) und \(r\) so, dass \(n = qk + r\) mit \(0 \leq r < k\). Wir nutzen die Eigenschaft \(a_{n+m} \leq a_n + a_m\), um abzuschätzen:
\(a_n = a_{qk + r} \leq qa_k + a_r\)
Daraus folgt:
\(\frac{a_n}{n} \leq \frac{qa_k + a_r}{qk + r} = \frac{qk\frac{a_k}{k} + r\frac{a_r}{r}}{qk + r}\)
(wobei wir \(\frac{a_r}{r}\) so umformen, dass der Bruch die gleiche Basis hat und die Ungleichheit beibehalten wird).
Da \(r < k\) und \(\frac{a_r}{r}\) finit ist, wird der Einfluss von \(\frac{a_r}{r}\) auf den Gesamtausdruck vernachlässigbar klein, je größer \(q\) (also \(n\)) wird. Daher können wir folgern:
\(\frac{a_n}{n} \approx \frac{a_k}{k} \text{ für ausreichend große } n\)
Da \(\frac{a_k}{k}\) nahe bei \(\beta\) liegt und \(k\) so gewählt wurde, dass \(\frac{a_k}{k} < \beta + \epsilon\), folgt, dass \(\frac{a_n}{n}\) gegen \(\beta\) konvergiert, wenn \(n\) gegen Unendlich geht.
Zusammenfassend haben wir gezeigt, dass die Folge \(\frac{a_n}{n}\) entweder bestimmt gegen \(-\infty\) divergiert, wenn kein solches \(\beta\) existiert, oder gegen \(\inf_{n \geq 1} \frac{a_n}{n}\) konvergiert, wenn \(\beta\) existiert und nicht \(-\infty\) ist.