Aufgabe:
Untersuche folgende Reihe auf Konvergenz:
\(\sum\limits_{k=1}^{\infty}(a+\frac{1}{k})^{k}\), wobei a ≥ 0.
Problem/Ansatz:
Nach dem Wurzelkriterium habe ich mir überlegt, dass die Reihe für a < 1 absolut konvergent wäre und für a > 1 müsste sie sogar divergent sein.
Meine Frage ist nun aber, ob es eine Möglichkeit gibt zu zeigen, dass die Reihe für alle a konvergent oder divergent ist und ich diese noch nicht sehe?
Gegebenenfalls ergibt sich ein Abschätzung mit dem Minoranten- oder Majorantenkriterium, die ich noch nicht gefunden habe?