Hallo,
na wenn dein \(n\) immer größer wird, dann wird \(\frac{1}{n}\) ja immer kleiner, weil du durch immer größere Zahlen teilst und im Grenzfall kommt \(0\) raus. Der Beweis gibt ein \(n\) an, ab dem \(\frac{1}{n}<\varepsilon\) gilt, was für Konvergenz notwendig ist und zwar gerade ein \(n\) das größer ist als \(\frac{1}{\varepsilon}\), dass es geben muss, weil \(\mathbb{N}\) sonst beschränkt wäre! :)
Student, Punkte: 2.6K
Da schnellt nix in die Höhe, da bleibt langfristig nix mehr übrig! ─ endlich verständlich 17.11.2019 um 17:18