Citat:
Ursprungligen postat av Kurret
Nytt problem:
Visa att om gränsvärdet av f(x) + f'(x) existerar och är lika med a, då x går mot oändligheten, så gäller det att f(x) går mot a och f'(x) går mot 0.
Låt g(x) = (f(x) - a)e^x. Då är g(x) deriverbar, och
g'(x)e^-x = f'(x) + f(x) - a -> 0 när x går mot oändligheten.
Så låt ε > 0, och låt M vara så att x ≥ M implicerar att |g'(x)e^-x| < ε.
Då är, för x > M
|g(x) - g(M)| = |∫ g'(t) dt| ≤ ∫ |g'(t)| dt ≤ ε ∫ e^t dt = ε(e^x - e^M).
där integralerna går från t=M till t=x. Då blir för x > M,
f(x) = a + g(x) e^-x
så
|f(x) - a - g(M)e^-x| = |g(x) - g(M)| e^-x ≤ ε(1 - e^(M-x)) < ε.
Om vi då låter N > M vara sådant att vi dessutom har g(M)e^-N < ε, så får vi att för x > N så är
|f(x) - a| < 2ε.
Alltså går f(x) mot a när x går mot oändligheten. Och att f'(x) -> 0 följer omedelbart.
Lämnar det fritt för vem som helst att posta nästa sats.