El Teorema del Sándwich
Para no inducir problemas a la hora de comprender la notación vamos a sustituir $\varepsilon$ por $\delta$ al comprobar que $|a_n \cdot b_n|< \varepsilon,$ de manera que lo que vamos a comprobar es que $|a_n \cdot b_n|< \delta$ para todo $\delta >0$ si $n>N_1=N_1({\delta}),$ y usaremos $N_1$ para distinguirlo de $N,$ que aparecerá más tarde en la demostración.
Para empezar fijemos un $\delta > 0.$ Podemos estimar de la siguiente manera: $|a_n \cdot b_n| = |a_n| \cdot |b_n| \leq |a_n | \cdot |M|=|a_n| \cdot M$ y como $\lim_{n \rightarrow \infty} a_n = 0$ entonces para todo $\varepsilon > 0$ se tiene que $|a_n|<\varepsilon$ si $n$ es mayor que $N=N(\varepsilon)=N_{\varepsilon}.$ Como esto se puede hacer para todo $\varepsilon>0$ en particular podremos hacerlo para $\varepsilon=\frac{\delta}{M}.$ De manera que si $n>N \left( \frac{\delta}{M} \right)$ entonces $|a_n|<\frac{\delta}{M}.$ Si ahora definimos $N_1\left( \delta \right)=N \left( \frac{\delta}{M} \right)$ podemos decir que $|a_n|<\frac{\delta}{M}$ si $n>N_1(\delta),$ y por tanto $|a_n| \cdot M \leq \frac{\delta}{M} \cdot M = \delta.$ Entonces hemos llegado a que $|a_n \cdot b_n| < \delta$ si $n>N_1(\delta),$ y al principio hemos tomado un $\delta >0$ arbitrario, de manera que hemos llegado a que para todo $\delta >0, \ \ |a_n \cdot b_n| < \delta$ si $n>N_1(\delta),$ que es precisamente la definición de que el límite de $a_n \cdot b_n$ sea $0.$
$\text{Comentario.}$ Lo que hemos hecho antes, al cambiar los nombres, es completamente lícito. Al sustituir $\varepsilon$ por $\delta$ no hemos infringido ninguna ley, simplemente hemos cambiado la notación (para facilitar la demostración). Lo que hay detrás sigue siendo lo mismo: queremos ver que $|a_n \cdot b_n|$ es menor que cualquier número real positivo si $n$ es lo suficientemente grande. Da igual llamar a dicho número $\varepsilon$ o $\delta.$ También conviene señalar que he nombrado $N_1(\delta)$ al número natural a partir del cual los términos con índice mayor son menores que $\delta$ porque sabía que iba a tener que utilizar otro $N.$ Podríamos haberlo llamado $K(\delta),$ por ejemplo, en vez de $N_1(\delta);$ ocurre igual que antes, e incluso podríamos haber empezado llamándolo $N(\delta)$ y luego llamar de otra manera a lo que yo he llamado $N(\varepsilon).$ La idea es mantener una notación clara y que se entienda bien.
$\text{Obs.}$ En el paso en el que se toma $N_1(\delta)=N\left( \frac{\delta}{M} \right)$ el razonamiento que se hace es el siguiente: como sé que $a_n$ tiende a $0,$ utilizando la definición sé que existe un número natural $N$ que depende de $\varepsilon: \ \ N=N_{\varepsilon}=N(\varepsilon)$ tal que si $n>N$ entonces $|a_n|<\varepsilon.$ Como sé que existe para cualquier $\varepsilon > 0,$ al habernos dado un $\delta>0$ se tiene que $\frac{\delta}{M}>0$ y podemos ver qué ocurre con $N(\varepsilon)$ cuando $\varepsilon=\frac{\delta}{M}.$ El tomar $\varepsilon=\frac{\delta}{M}$ es simplemente para que se simplifique con la $M$ que aparece multiplicando y quede $|a_n \cdot b_n|< \delta.$ Si por ejemplo hubiésemos tomado $\varepsilon = \delta,$ habríamos acabado con $|a_n \cdot b_n|< \delta \cdot M,$ pero como $\delta$ lo podemos hacer arbitrariamente pequeño, podemos volver al paso donde hemos tomado $\varepsilon = \delta$ e intentar tomar un $\varepsilon$ distinto de manera que se ajuste para obtener $|a_n \cdot b_n|< \delta.$ Esta forma de hacer la demostración la volveremos a ver a continuación en la demostración del Teorema del Sándwich.
- Sea $\varepsilon >0.$ Queremos ver que existe un $N=N(\varepsilon) \in \mathbb{N}$ tal que $\left| (a_n+b_n) -(A+B) \right| < \varepsilon$ si $n>N(\varepsilon).$ Podemos hacer: $$ \left| (a_n+b_n) -(A+B) \right| = \left| a_n - A + b_n - B \right| $$y aplicar la desigualdad triangular para deducir: $$\left| a_n - A + b_n - B \right| \leq \left| a_n - A \right| + \left| b_n - B \right|.$$Ahora la idea es que como ambas cantidades tienden a $0,$ podemos estimarlas por $\frac{\varepsilon}{2}$ cada una de ellas. De hecho, por la definición de que $A$ sea el límite de $a_n$ existe un $N_1\left( \frac{\varepsilon}{2} \right)$ tal que $|a_n-A|< \frac{\varepsilon}{2}$ si $n>N_1\left( \frac{\varepsilon}{2} \right).$ Como $b_n$ tiende a $B,$ también existe un $N_2\left( \frac{\varepsilon}{2} \right)$ tal que $|b_n-B|< \frac{\varepsilon}{2}$ si $n>N_2\left( \frac{\varepsilon}{2} \right).$ Por tanto si $n> \max\left\lbrace N_1\left( \frac{\varepsilon}{2} \right),N_2\left( \frac{\varepsilon}{2} \right) \right\rbrace$ entonces: $$\left| (a_n+b_n) -(A+B) \right| \leq \left| a_n - A \right| + \left| b_n - B \right| < \frac{\varepsilon}{2}+\frac{\varepsilon}{2}=\varepsilon$$luego basta tomar $N=N(\varepsilon)=\max\left\lbrace N_1\left( \frac{\varepsilon}{2} \right),N_2\left( \frac{\varepsilon}{2} \right) \right\rbrace.$
- Sea $\varepsilon>0.$ Queremos ver que existe un $N=N(\varepsilon) \in \mathbb{N}$ tal que $\left| (a_n\cdot b_n) -(A \cdot B) \right| < \varepsilon$ si $n>N(\varepsilon).$ Podemos hacer la manipulación: $$ \begin{align*} \left| (a_n\cdot b_n) -(A \cdot B) \right| &= \left| (a_n\cdot b_n)-(A \cdot b_n) + (A \cdot b_n) -(A \cdot B) \right| = \\ &= \left| (a_n-A)\cdot b_n + A \cdot (b_n-B) \right| \leq \\ &\leq \left| (a_n-A)\cdot b_n \right| + \left|A \cdot (b_n-B) \right|= \\ &= \left| (a_n-A) \right| \cdot \left| b_n \right| + \left|A \right| \cdot \left| (b_n-B) \right| \end{align*}$$Ahora bien, $a_n$ tiende a $A$ y por tanto $a_n-A$ tiende a $0.$ De la misma manera $b_n-B$ también tiende a $0,$ y $|A|$ es un número finito (podemos considerarlo $A=c_n$ para todo $n$ natural y por tanto $|A|$ es) acotado y $|b_n|$ también es acotada si $n$ es suficientemente grande, pues $|b_n-B|< \varepsilon,$ luego $B-\varepsilon < b_n < B+ \varepsilon,$ y si $n<N$ entonces el conjunto $\lbrace b_n \rbrace_{n=1}^{N}$ es finito y por tanto es acotado. Por ello podemos usar la proposición que hemos demostrado antes para deducir que entonces $\left| (a_n-A) \right| \cdot \left| b_n \right| + \left|A \right| \cdot \left| (b_n-B) \right|$ tiende a $0$ cuando $n$ tiende a $\infty,$ y por tanto $\left| (a_n \cdot b_n) -(A \cdot B) \right|$ también tiende a $0,$ luego $\lim_{n \rightarrow \infty} (a_n \cdot b_n) -(A \cdot B) = 0,$ y por tanto $\lim_{n \rightarrow \infty} (a_n \cdot b_n) =(A \cdot B).$ En estos últimos pasos hemos utilizado que si $\lim_{n \rightarrow \infty} |a_n|=0$ entonces $\lim_{n \rightarrow \infty} a_n=0$ (para una sucesión $a_n$ cualquiera, en nuestro ejemplo: $(a_n \cdot b_n) -(A \cdot B)$). Es un ejercicio fácil demostrar este pequeño resultado. Además durante la demostración ¡hemos utilizado el Teorema del Sandwich! Hemos metido $\left| (a_n\cdot b_n) -(A \cdot B) \right|$ ente $0$ y $\left| (a_n-A) \right| \cdot \left| b_n \right| + \left|A \right| \cdot \left| (b_n-B) \right|,$ y hemos visto que esta segunda parte tiende a $0,$ luego: $$0 \leq \lim_{n \rightarrow \infty} \left| (a_n\cdot b_n) -(A \cdot B) \right| \leq 0$$y por tanto: $$\lim_{n \rightarrow \infty} \left| (a_n\cdot b_n) -(A \cdot B) \right|=0.$$En realidad lo podemos justificar simplemente si vemos que los límites conservan las desigualdades (lo cual es un buen ejercicio, por otro lado). No nos vamos a preocupar porque el Teorema del Sandwich lo demostraremos a continuación sin necesidad de utilizar este resultado, y por tanto tenemos su validez. Sin embargo lo que tenemos que llevarnos de este ejemplo es la idea de que hemos asumido ciertos resultados casi sin darnos cuenta. Por tanto hay que andar siempre con ojo al demostrar los resultados para asegurarnos de haberlo hecho bien.
- Para esta tercera parte podemos fijarnos en que basta con demostrar que $\lim_{n \rightarrow \infty} \frac{1}{b_n}=\frac{1}{B},$ si $B\neq 0,$ puesto que si eso fuera cierto entonces por el apartado anterior tendríamos que $\lim_{n \rightarrow \infty} \frac{a_n}{b_n}=\frac{A}{B}$ al ser $\frac{a_n}{b_n}=a_n \cdot \frac{1}{b_n}.$ Por tanto vamos a considerar: $$\beta_n=\frac{1}{b_n}-\frac{1}{B}=\frac{B - b_n}{b_n \cdot B}.$$Lo que queremos demostrar es que $\beta_n$ tiende a $0$ cuando $n$ tiende a $\infty.$ Como $b_n$ tiende a $B,$ entonces $B-b_n$ tiende a $0.$ Por tanto si $\frac{1}{b_n \cdot B}$ fuese acotada, $\beta_n$ tendería a $0.$ Como $B$ es un número real, basta ver que $\frac{1}{b_n}$ está acotada. Para ello podemos utilizar el mismo argumento que utilizamos en el anterior apartado. A partir de cierto $N \in \mathbb{N}$ todos los términos de la sucesión $b_n$ con $n>N$ están acotados (pues están cerca del límite), y los términos anteriores, $b_n$ con $n\leq N$ forman un conjunto finito de números reales, luego también es acotada $b_n$ en esos términos. Así tenemos que $\frac{1}{b_n \cdot B}$ es acotada y por tanto $\beta_n$ tiende a $0$ y hemos terminado.
Para que una sucesión $\left\lbrace a_n \right\rbrace_{n=1}^{\infty}$ tienda a $\infty$ (cuando $n$ tiende a $\infty$) vamos a pedirle que dado cualquier número real positivo, $\Delta$, (tan grande como queramos) siempre haya un término de la sucesión a partir del cual el resto de términos sean mayores que $\Delta$, y vamos a querer que esto ocurra para cualquier $\Delta >0.$ Es decir, que por muy grande que sea el número que nos imaginemos, siempre habrá infinitos términos de la sucesión que sean mayores que él. Análogamente la sucesión tenderá a $-\infty$ si esto mismo ocurre con $-\Delta$ (cuando $\Delta>0$) y $a_n<-\Delta$ para todos los $n>N_{\Delta}$ (aprovecho para recordar que $N$ depende de $\Delta$). En términos matemáticos esto es:
$\text{Def.}$ Dada una sucesión $\left\lbrace a_n \right\rbrace_{n=1}^{\infty},$ decimos que $\lim_{n \rightarrow \infty} a_n = \infty \ (-\infty)$ si $$ \forall \Delta > 0 \ \ \exists N_{\Delta} \in \mathbb{N}: \ a_n>\Delta \ (a_n<-\Delta) \ \forall n>N_{\Delta}$$
$\text{Obs.}$ Si tenemos una sucesión $\left\lbrace a_n \right\rbrace_{n=1}^{\infty}$ tal que $\lim_{n \rightarrow \infty} |a_n| = \infty,$ es decir, que la distancia de $a_n$ a $0$ se hace arbitrariamente grande (podemos pensar que $a_n$ tiende a $\infty$ o a $-\infty$ o que oscila pero cada vez se aleja más del $0,$ tanto que sus distancias a él se hacen arbitrariamente grandes) entonces la sucesión $b_n = \frac{1}{a_n}$ tiene $\lim_{n \rightarrow \infty} b_n = 0.$
Sea $\varepsilon>0$ (la idea aquí es que como $\Delta$ se puede hacer arbitrariamente grande, $\frac{1}{\Delta}$ se hace arbitrariamente pequeño, por tanto podemos pensar en $\varepsilon$ como $\frac{1}{\Delta},$ o lo que es lo mismo, $\Delta = \frac{1}{\varepsilon}$). Lo que queremos es $|b_n|<\varepsilon,$ o lo que es lo mismo: $\frac{1}{|a_n|}<\varepsilon,$ que equivale a $\frac{1}{\varepsilon}<|a_n|.$ Sin embargo, como $|a_n|$ tiende a $\infty,$ sabemos que para todo $\Delta>0: \ \ |a_n|> \Delta$ si $n>N=N_{\Delta}=N(\Delta).$ Como se cumple para todo $\Delta>0$ en particular podemos elegir $\Delta= \frac{1}{\varepsilon},$ y entonces tendremos que $|b_n|<\varepsilon$ si $n > N\left( \Delta \right)=N\left( \frac{1}{\varepsilon} \right).$ Es decir, tomando $N_1(\varepsilon)=N\left( \frac{1}{\varepsilon} \right)$ tenemos:$$|b_n|<\varepsilon \text{ si } n>N_1(\varepsilon) $$y como el $\varepsilon>0$ que hemos tomado era arbitrario, esto vale para todo $\varepsilon >0,$ y por tanto tenemos que $|b_n|$ tiende a $0$ cuando $n$ tiende a $\infty.$
- La sucesión $\left\lbrace \frac{1}{n} \right\rbrace_{n=1}^{\infty}$ sabemos que tiende a $0$ cuando $n$ tiende a $\infty,$ lo vimos en el post anterior. Sin embargo podemos deducirlo también utilizando la última observación: como la sucesión $b_n=|n|=n$ tiende a $\infty$ cuando $n$ tiende a $\infty,$ entonces $\frac{1}{b_n}=\frac{1}{n}$ tiene que tender a $0.$
- Vamos a ver si la sucesión $a_n=\frac{n^2+5n+2}{2n^2+3}$ tiene límite:$$\frac{n^2+5n+2}{2n^2+3}=\frac{n^2+5n+2}{2n^2+3} \cdot \frac{n^2}{n^2}=\frac{\frac{n^2+5n+2}{n^2}}{\frac{2n^2+3}{n^2}}=\frac{1+\frac{5}{n}+\frac{2}{n^2}}{2+\frac{3}{n^2}}$$y ahora: $$ \lim_{n \rightarrow \infty} \frac{n^2+5n+2}{2n^2+3} = \frac{ \lim_{n \rightarrow \infty} 1+\frac{5}{n}+\frac{2}{n^2}}{ \lim_{n \rightarrow \infty} 2+\frac{3}{n^2}}=\frac{1}{2}.$$Aquí hemos utilizado un pequeño truco que consiste en multiplicar y dividir por lo mismo: $n^2.$ Para ello necesitamos que $n \neq 0,$ pero en este caso $n \in \mathbb{N}$ luego $n \geq 1.$
- La sucesión $a_n=\frac{\sin(f(n))}{n}$ donde $f: \mathbb{N} \longrightarrow \mathbb{R}$ es una función (podemos pensar en $f$ como si fuera una sucesión, de hecho), tiende a $0$ cuando $n$ tiende a $\infty.$ La razón es que $\frac{1}{n}$ tiende a $0$ cuando $n$ tiende a $\infty$ y $\sin(x)$ es acotada para todo $x \in \mathbb{R},$ puesto que $-1 \leq \sin(x) \leq 1.$ Por tanto el producto tiende a $0$ cuando $n$ tiende a $\infty.$
- Por último vamos a ver un caso en el que tendremos que utilizar el Teorema del Sándwich. Consideramos la sucesión: $$\left\lbrace \frac{\sin(\frac{1}{n})}{\frac{1}{n}} \right\rbrace_{n=1}^{\infty}.$$Si intentamos calcular el límite directamente nos queda $\frac{\sin(0)}{0}=\frac{0}{0},$ que no es ningún número, esto es una indeterminación: no nos ha dado ningún tipo de información. Ocurre lo mismo que si en el primero de los ejemplos intentamos sustituir $n$ por $\infty,$ queda $\frac{\infty}{\infty}$ que no lo podemos interpretar de ninguna forma. (Y de hecho $\frac{1}{\infty} \neq 0,$ puesto que $\infty$ no es un número. La forma de interpretar esto la veremos más adelante). En este caso vamos a utilizar las estimaciones:$$ \sin \left( \frac{1}{n} \right)\leq \frac{1}{n} \leq \tan \left( \frac{1}{n} \right) $$para aquellos $n$ tales que $0<\frac{1}{n}<\frac{\pi}{2} \Longleftrightarrow 0<\frac{2}{\pi}<n$ entonces $\sin\left( \frac{1}{n} \right)>0$ y podemos invertir la desigualdad y dividir por $\sin\left( \frac{1}{n} \right),$ lo que resulta en: $$ \frac{\sin\left( \frac{1}{n} \right)}{\tan \left( \frac{1}{n} \right)} \leq \frac{\sin\left( \frac{1}{n} \right)}{\frac{1}{n}} \leq \frac{\sin\left( \frac{1}{n} \right)}{\sin\left( \frac{1}{n} \right)}$$o lo que es lo mismo: $$\cos\left( \frac{1}{n} \right) \leq \frac{\sin\left( \frac{1}{n} \right)}{\frac{1}{n}} \leq 1. $$Ahora lo que nos gustaría es que $\lim_{n \rightarrow \infty} \cos\left( \frac{1}{n} \right) = 1,$ para poder aplicar el Teorema del Sándwich y ver que el límite de nuestra sucesión es en realidad $1.$ Pues bien, esto lo veremos bastante más adelante, pero por ahora vamos a creérnoslo: la función $\cos(x)$ es continua en $\mathbb{R}$ y por tanto es continua en $0,$ lo cual justamente nos da lo que queremos. Sin embargo la afirmación algo más débil pero que para nuestro ejemplo es justamente la que necesitamos (la de que $\lim_{n \rightarrow \infty} \cos\left( \frac{1}{n} \right) = 1=\cos(0)$) se puede probar teniendo en cuenta que $\cos^2\left( \frac{1}{n} \right) + \sin^2\left( \frac{1}{n} \right)=1,$ probando que $\lim_{n \rightarrow \infty} \sin\left( \frac{1}{n} \right) =\sin(0)=0,$ lo cual podemos hacerlo con la estimación $-t\leq \sin(-t)=-\sin(t) \leq \sin(t) \leq t$ para $t>0$ cercano a $0,$ y probando que si $a_n\geq 0$ converge a $A \geq 0$ entonces $\sqrt{a_n}$ converge a $\sqrt{A}.$ De cualquier manera, si nos creemos que el coseno es una función continua (lo explicaremos más adelante) entonces podemos aplicar el Teorema del Sándwich y ver que nuestra sucesión tiende a $1:$ $$ \lim_{n \rightarrow \infty} \frac{\sin(\frac{1}{n})}{\frac{1}{n}} = 1$$

Comentarios
Publicar un comentario