Es ist bekannt, dass \((\log(x+1))^{\prime} = \frac{1}{1+x}\) ist, daher folgt nach dem Hauptsatz der Differential- und Integralrechnung:
\[\log(x+1)=\int_0^x\frac{dt}{1+t}\]
Nun nutze er die geometrische Reihe, welche für \(|q|<1\) konvergiert:
\[\sum_{k=0}^{\infty}q^k = \frac{1}{1-q}\]
Wir bekommen für \(|t|<1\):
\[\frac{1}{1-t} = \sum_{k=0}^{\infty}(-1)^k\cdot t^k\]
Dies setzte er nun in das Integral ein und bekam:
\[\log(x+1)=\int_0^x \sum_{k=0}^{\infty}(-1)^k\cdot t^k dt = \sum_{k=0}^{\infty}(-1)^k\cdot \int_0^x t^k dt = \sum_{k=0}^{\infty}(-1)^k\cdot \frac{x^{k+1}}{k+1}\]
Das was ich nicht ganz verstehe ist warum diese Gleichung auch für \(x=1\) gilt, denn für diese ist die Umformung mit der geometrischen Reihe doch gar nicht erlaubt oder wird dann mit einem uneigentlichen Integral gearbeitet, also:
\[\log(x+1) = \lim_{n\rightarrow x} \int_0^n\frac{dt}{1+t}\]
Die Herleitung in meinem Buch ist leider sehr knapp und legt lediglich die Beweisidee offen. Würde mich freuen, wenn mir jemand meinen Denkfehler erklären könnte.
Punkte: 10