El Teorema del Sándwich

En el post anterior vimos lo que eran las sucesiones de números reales, los límites de estas y dejamos planteadas algunas preguntas que iremos respondiendo a lo largo de los siguientes posts. Lo que veremos hoy son varios resultados sobre sucesiones de números reales que pueden resultar interesantes e intuitivos y distintos ejemplos de cómo calcular límites de sucesiones utilizando estos resultados.

PROPIEDADES DE LOS LÍMITES

En el anterior post terminamos hablando de cómo los límites se comportan bien con las operaciones que conocemos en $\mathbb{R},$ pero no demostramos el resultado. Lo que haremos a continuación es investigar un poco una idea que nos va a ayudar a demostrarlo.

Vamos a suponer que tenemos dos sucesiones. Una de ellas es constante: $\left\lbrace c_n \right\rbrace_{n=1} ^ \infty, \ \ c_n = c \ \ \forall n \in \mathbb{N}$ para cierto $0<c\in \mathbb{R}$ un número real fijo, y la otra sucesión converge a $0:$  $\left\lbrace a_n \right\rbrace_{n=1}^\infty$ con  $\lim_{n \rightarrow \infty} a_n =0.$ Ahora consideremos la sucesión producto: $\left\lbrace b_n \right\rbrace_{n=1} ^ \infty$ donde $b_n = c_n \cdot a_n = c \cdot a_n.$ Como la sucesión $c_n$ es constante, su límite es $c,$ y como el de $a_n$ es $0,$ el límite del producto debería ser $0.$ Es decir, es como si $a_n$ arrastrase a $c$ a $0$ porque al ser constante, $c$ no se puede resistir. Cada término de $a_n$ se va haciendo más pequeño y $c$ se mantiene igual, luego $a_n$ "arrastra" a $c$ a $0.$ Ahora imaginemos que en vez de $c_n=c$ tenemos otra sucesión $\left\lbrace d_n \right\rbrace_{n=1} ^ \infty$ que no es constante, pero que está acotada: $\left| d_n \right| \leq c \ \ \forall n \in \mathbb{N}.$ Si ahora consideramos $\left\lbrace b_n \right\rbrace_{n=1} ^ \infty$ con $b_n = a_n \cdot d_n$ parecería sensato pensar que al estar acotada, la sucesión $d_n$ debería ser arrastrada por $a_n$ hacia $0$ de la misma manera que antes: $d_n$ igual no converge, pero como mucho será $c$ o $-c,$ luego debería ocurrirle lo mismo que a $c_n$ y al multiplicarla por $a_n$ sería razonable que el producto convergiese a $0.$ Esto es en realidad un resultado (que probaremos ahora) que nos permite demostrar algunas de las afirmaciones que dejamos pendientes en el post anterior.

$\text{Prop.}$ Sean $\left\lbrace a_n \right\rbrace_{n=1} ^ \infty$ y $\left\lbrace b_n \right\rbrace_{n=1} ^ \infty$ sucesiones de número reales tales que $\lim_{n \rightarrow \infty} a_n =0$ y $\left| d_n \right| \leq M \in \mathbb{R} \ \ \forall n \in \mathbb{N}$ ($a_n$ tiende a $0$ y $b_n$ está acotada). Entonces $\exists  \lim_{n \rightarrow \infty} a_n \cdot b_n =0.$

Vamos a querer comprobar que $|a_n \cdot b_n|< \varepsilon$ para todo $\varepsilon >0$ si $n$ es lo suficientemente grande ($n>N_1=N_1({\varepsilon})$  para indicar que $N$ depende de la elección de $\varepsilon$).
Para no inducir problemas a la hora de comprender la notación vamos a sustituir $\varepsilon$ por $\delta$ al comprobar que $|a_n \cdot b_n|< \varepsilon,$ de manera que lo que vamos a comprobar es que $|a_n \cdot b_n|< \delta$ para todo $\delta >0$ si $n>N_1=N_1({\delta}),$ y usaremos $N_1$ para distinguirlo de $N,$ que aparecerá más tarde en la demostración.

Para empezar fijemos un $\delta > 0.$ Podemos estimar de la siguiente manera: $|a_n \cdot b_n| = |a_n| \cdot |b_n| \leq |a_n | \cdot |M|=|a_n| \cdot M$ y como $\lim_{n \rightarrow \infty} a_n = 0$ entonces para todo $\varepsilon > 0$ se tiene que $|a_n|<\varepsilon$ si $n$ es mayor que $N=N(\varepsilon)=N_{\varepsilon}.$ Como esto se puede hacer para todo $\varepsilon>0$ en particular podremos hacerlo para $\varepsilon=\frac{\delta}{M}.$ De manera que si $n>N \left( \frac{\delta}{M} \right)$ entonces $|a_n|<\frac{\delta}{M}.$ Si ahora definimos $N_1\left( \delta \right)=N \left( \frac{\delta}{M} \right)$ podemos decir que $|a_n|<\frac{\delta}{M}$ si $n>N_1(\delta),$ y por tanto $|a_n| \cdot M \leq \frac{\delta}{M} \cdot M = \delta.$ Entonces hemos llegado a que $|a_n \cdot b_n| < \delta$ si $n>N_1(\delta),$ y al principio hemos tomado un $\delta >0$ arbitrario, de manera que hemos llegado a que para todo $\delta >0, \ \ |a_n \cdot b_n| < \delta$ si $n>N_1(\delta),$ que es precisamente la definición de que el límite de $a_n \cdot b_n$ sea $0.$

$\text{Comentario.}$ Lo que hemos hecho antes, al cambiar los nombres, es completamente lícito. Al sustituir $\varepsilon$ por $\delta$ no hemos infringido ninguna ley, simplemente hemos cambiado la notación (para facilitar la demostración). Lo que hay detrás sigue siendo lo mismo: queremos ver que $|a_n \cdot b_n|$ es menor que cualquier número real positivo si $n$ es lo suficientemente grande. Da igual llamar a dicho número $\varepsilon$ o $\delta.$ También conviene señalar que he nombrado $N_1(\delta)$ al número natural a partir del cual los términos con índice mayor son menores que $\delta$ porque sabía que iba a tener que utilizar otro $N.$ Podríamos haberlo llamado $K(\delta),$ por ejemplo, en vez de $N_1(\delta);$ ocurre igual que antes, e incluso podríamos haber empezado llamándolo $N(\delta)$ y luego llamar de otra manera a lo que yo he llamado $N(\varepsilon).$ La idea es mantener una notación clara y que se entienda bien.

$\text{Obs.}$ En el paso en el que se toma $N_1(\delta)=N\left( \frac{\delta}{M} \right)$ el razonamiento que se hace es el siguiente: como sé que $a_n$ tiende a $0,$ utilizando la definición sé que existe un número natural $N$ que depende de $\varepsilon: \ \ N=N_{\varepsilon}=N(\varepsilon)$ tal que si $n>N$ entonces $|a_n|<\varepsilon.$ Como sé que existe para cualquier $\varepsilon > 0,$ al habernos dado un $\delta>0$ se tiene que $\frac{\delta}{M}>0$ y podemos ver qué ocurre con $N(\varepsilon)$ cuando $\varepsilon=\frac{\delta}{M}.$ El tomar $\varepsilon=\frac{\delta}{M}$ es simplemente para que se simplifique con la $M$ que aparece multiplicando y quede $|a_n \cdot b_n|< \delta.$ Si por ejemplo hubiésemos tomado $\varepsilon = \delta,$ habríamos acabado con $|a_n \cdot b_n|< \delta \cdot M,$ pero como $\delta$ lo podemos hacer arbitrariamente pequeño, podemos volver al paso donde hemos tomado $\varepsilon = \delta$ e intentar tomar un $\varepsilon$ distinto de manera que se ajuste para obtener $|a_n \cdot b_n|< \delta.$ Esta forma de hacer la demostración la volveremos a ver a continuación en la demostración del Teorema del Sándwich.


Y ahora que tenemos esta herramienta vamos a demostrar las propiedades que nos faltaban en el post anterior.

  1. Sea $\varepsilon >0.$ Queremos ver que existe un $N=N(\varepsilon) \in \mathbb{N}$ tal que $\left| (a_n+b_n) -(A+B) \right| < \varepsilon$ si $n>N(\varepsilon).$ Podemos hacer: $$ \left| (a_n+b_n) -(A+B) \right| = \left| a_n - A + b_n - B \right| $$y aplicar la desigualdad triangular para deducir: $$\left| a_n - A + b_n - B \right| \leq \left| a_n - A \right| + \left| b_n - B \right|.$$Ahora la idea es que como ambas cantidades tienden a $0,$ podemos estimarlas por $\frac{\varepsilon}{2}$ cada una de ellas. De hecho, por la definición de que $A$ sea el límite de $a_n$ existe un $N_1\left( \frac{\varepsilon}{2} \right)$ tal que $|a_n-A|< \frac{\varepsilon}{2}$ si $n>N_1\left( \frac{\varepsilon}{2} \right).$ Como $b_n$ tiende a $B,$ también existe un $N_2\left( \frac{\varepsilon}{2} \right)$ tal que $|b_n-B|< \frac{\varepsilon}{2}$ si $n>N_2\left( \frac{\varepsilon}{2} \right).$ Por tanto si $n> \max\left\lbrace N_1\left( \frac{\varepsilon}{2} \right),N_2\left( \frac{\varepsilon}{2} \right) \right\rbrace$ entonces: $$\left| (a_n+b_n) -(A+B) \right| \leq \left| a_n - A \right| + \left| b_n - B \right| < \frac{\varepsilon}{2}+\frac{\varepsilon}{2}=\varepsilon$$luego basta tomar $N=N(\varepsilon)=\max\left\lbrace N_1\left( \frac{\varepsilon}{2} \right),N_2\left( \frac{\varepsilon}{2} \right) \right\rbrace.$

  2. Sea $\varepsilon>0.$ Queremos ver que existe un $N=N(\varepsilon) \in \mathbb{N}$ tal que $\left| (a_n\cdot b_n) -(A \cdot B) \right| < \varepsilon$ si $n>N(\varepsilon).$ Podemos hacer la manipulación: $$ \begin{align*} \left| (a_n\cdot b_n) -(A \cdot B) \right| &= \left| (a_n\cdot b_n)-(A \cdot b_n) + (A \cdot b_n) -(A \cdot B) \right| = \\ &= \left| (a_n-A)\cdot b_n + A \cdot (b_n-B) \right| \leq \\ &\leq \left| (a_n-A)\cdot b_n \right| + \left|A \cdot (b_n-B) \right|= \\ &= \left| (a_n-A) \right| \cdot  \left| b_n \right| + \left|A \right| \cdot \left| (b_n-B) \right|  \end{align*}$$Ahora bien, $a_n$ tiende a $A$ y por tanto $a_n-A$ tiende a $0.$ De la misma manera $b_n-B$ también tiende a $0,$ y $|A|$ es un número finito (podemos considerarlo $A=c_n$ para todo $n$ natural y por tanto $|A|$ es) acotado y $|b_n|$ también es acotada si $n$ es suficientemente grande, pues $|b_n-B|< \varepsilon,$ luego $B-\varepsilon < b_n < B+ \varepsilon,$ y si $n<N$ entonces el conjunto $\lbrace b_n \rbrace_{n=1}^{N}$ es finito y por tanto es acotado. Por ello podemos usar la proposición que hemos demostrado antes para deducir que entonces $\left| (a_n-A) \right| \cdot  \left| b_n \right| + \left|A \right| \cdot \left| (b_n-B) \right|$ tiende a $0$ cuando $n$ tiende a $\infty,$ y por tanto $\left| (a_n \cdot b_n) -(A \cdot B) \right|$ también tiende a $0,$ luego $\lim_{n \rightarrow \infty} (a_n \cdot b_n) -(A \cdot B) = 0,$ y por tanto $\lim_{n \rightarrow \infty} (a_n \cdot b_n) =(A \cdot B).$ En estos últimos pasos hemos utilizado que si $\lim_{n \rightarrow \infty} |a_n|=0$ entonces $\lim_{n \rightarrow \infty} a_n=0$ (para una sucesión $a_n$ cualquiera, en nuestro ejemplo: $(a_n \cdot b_n) -(A \cdot B)$). Es un ejercicio fácil demostrar este pequeño resultado. Además durante la demostración ¡hemos utilizado el Teorema del Sandwich! Hemos metido $\left| (a_n\cdot b_n) -(A \cdot B) \right|$ ente $0$ y $\left| (a_n-A) \right| \cdot  \left| b_n \right| + \left|A \right| \cdot \left| (b_n-B) \right|,$ y hemos visto que esta segunda parte tiende a $0,$ luego: $$0 \leq \lim_{n \rightarrow \infty} \left| (a_n\cdot b_n) -(A \cdot B) \right| \leq 0$$y por tanto: $$\lim_{n \rightarrow \infty} \left| (a_n\cdot b_n) -(A \cdot B) \right|=0.$$En realidad lo podemos justificar simplemente si vemos que los límites conservan las desigualdades (lo cual es un buen ejercicio, por otro lado). No nos vamos a preocupar porque el Teorema del Sandwich lo demostraremos a continuación sin necesidad de utilizar este resultado, y por tanto tenemos su validez. Sin embargo lo que tenemos que llevarnos de este ejemplo es la idea de que hemos asumido ciertos resultados casi sin darnos cuenta. Por tanto hay que andar siempre con ojo al demostrar los resultados para asegurarnos de haberlo hecho bien.

  3. Para esta tercera parte podemos fijarnos en que basta con demostrar que $\lim_{n \rightarrow \infty} \frac{1}{b_n}=\frac{1}{B},$ si $B\neq 0,$ puesto que si eso fuera cierto entonces por el apartado anterior tendríamos que $\lim_{n \rightarrow \infty} \frac{a_n}{b_n}=\frac{A}{B}$ al ser $\frac{a_n}{b_n}=a_n \cdot \frac{1}{b_n}.$ Por tanto vamos a considerar: $$\beta_n=\frac{1}{b_n}-\frac{1}{B}=\frac{B - b_n}{b_n \cdot B}.$$Lo que queremos demostrar es que $\beta_n$ tiende a $0$ cuando $n$ tiende a $\infty.$ Como $b_n$ tiende a $B,$ entonces $B-b_n$ tiende a $0.$ Por tanto si $\frac{1}{b_n \cdot B}$ fuese acotada, $\beta_n$ tendería a $0.$ Como $B$ es un número real, basta ver que $\frac{1}{b_n}$ está acotada. Para ello podemos utilizar el mismo argumento que utilizamos en el anterior apartado. A partir de cierto $N \in \mathbb{N}$ todos los términos de la sucesión $b_n$ con $n>N$ están acotados (pues están cerca del límite), y los términos anteriores, $b_n$ con $n\leq N$ forman un conjunto finito de números reales, luego también es acotada $b_n$ en esos términos. Así tenemos que $\frac{1}{b_n \cdot B}$ es acotada y por tanto $\beta_n$ tiende a $0$ y hemos terminado.


TEOREMA DEL SÁNDWICH

Ahora que ya hemos demostrado las propiedades anteriores y podemos hacer uso de ellas vamos a explorar otro resultado que resulta bastante intuitivo: el Teorema del Sándwich. Vamos a imaginarnos tres sucesiones en la recta real, cada una mayor que la anterior y de manera que la más grande y la más pequeña tienen el mismo límite. Como la sucesión restante se encuentra entre ellas dos, parece que van a formar un sándwich y las tres sucesiones van a tener el mismo límite. Eso es lo que nos dice la intuición. Pues bien, este resultado es cierto y se conoce como Teorema del Sándwich.


$\text{Teorema.}$ Sean $\left\lbrace a_n \right\rbrace_{n=1} ^ \infty, \ \left\lbrace b_n \right\rbrace_{n=1} ^ \infty, \ \left\lbrace c_n \right\rbrace_{n=1} ^ \infty$ sucesiones de números reales tales que $a_n \leq b_n \leq c_n \ \ \forall n > N \in \mathbb{N}$ y $\exists \lim_{n \rightarrow \infty} a_n = \lim_{n \rightarrow \infty} c_n=L \in \mathbb{R} .$ Entonces $\exists \lim_{n \rightarrow \infty} b_n $ y: $$\lim_{n \rightarrow \infty} a_n = \lim_{n \rightarrow \infty} b_n =\lim_{n \rightarrow \infty} c_n $$

Sean $\beta_n=b_n-a_n, \ \gamma_n=c_n-a_n.$ Es evidente que $0\leq \beta_n \leq \gamma_n \ \ \forall n > N.$ Además, $\gamma_n \rightarrow 0$ cuando $n \rightarrow \infty,$ pues: $$\lim_{n \rightarrow \infty} \gamma_n = \lim_{n \rightarrow \infty} (c_n - a_n) = \lim_{n \rightarrow \infty} c_n - \lim_{n \rightarrow \infty} a_n = L-L=0.$$Lo que queremos demostrar es que $\exists \lim_{n \rightarrow \infty} \beta_n = 0.$ Por tanto, al igual que hicimos en la demostración de la proposición, empecemos dándonos un $\delta >0.$ Como $0 \leq \beta_n \leq \gamma_n$ podemos escribir $0 \leq |\beta_n| \leq |\gamma_n|,$ y ahora nos damos cuenta de que como $\gamma_n$ tiende a $0,$ deberíamos poder hacer $|\gamma_n|$ arbitrariamente pequeño. Es decir: como $0$ es el límite cuando $n \rightarrow \infty$ de $\gamma_n$ entonces $\forall \varepsilon >0 \ \exists N(\varepsilon) \in \mathbb{N}$ tal que $|\gamma_n|< \varepsilon$ si $n>N(\varepsilon).$ Al valer para todo $\varepsilon>0,$ en particular esto valdrá para $\varepsilon = \delta,$ es decir, que $|\gamma_n|< \delta$ si $n>N(\delta).$ Ahora, como $|\beta_n| \leq |\gamma_n| < \delta$ entonces $|\beta_n|< \delta$ si $n > N(\delta),$ luego para $\beta_n$ nos vale el mismo $N$ que para $\gamma_n,$ y como $\delta>0$ es arbitrario, no hemos impuesto ninguna condición sobre él, esto se cumple para cada $\delta>0$ y por tanto: $$0=\lim_{n \rightarrow \infty} \beta_n = \lim_{n \rightarrow \infty} (b_n-a_n) =\lim_{n \rightarrow \infty} b_n - \lim_{n \rightarrow \infty} a_n$$y se tiene $\lim_{n \rightarrow \infty} b_n = \lim_{n \rightarrow \infty} a_n = L.$


LÍMITE INFINITO

Por último, antes de ver algunos ejemplos, vamos a concretar algo que vimos en el anterior post. En él dijimos que si una sucesión no converge entonces diverge, pero también vimos que hay varias formas de divergir. Una sucesión divergente puede quedarse oscilando, pero también puede ser que crezca o decrezca infinitamente y no oscile. En ese caso parece que podríamos decir que el límite de la sucesión es $\infty$ o $-\infty.$ Tras esta observación vamos a precisar lo que queremos decir.

Para que una sucesión $\left\lbrace a_n \right\rbrace_{n=1}^{\infty}$ tienda a $\infty$ (cuando $n$ tiende a $\infty$) vamos a pedirle que dado cualquier número real positivo, $\Delta$, (tan grande como queramos) siempre haya un término de la sucesión a partir del cual el resto de términos sean mayores que $\Delta$, y vamos a querer que esto ocurra para cualquier $\Delta >0.$ Es decir, que por muy grande que sea el número que nos imaginemos, siempre habrá infinitos términos de la sucesión que sean mayores que él. Análogamente la sucesión tenderá a $-\infty$ si esto mismo ocurre con $-\Delta$ (cuando $\Delta>0$)  y $a_n<-\Delta$ para todos los $n>N_{\Delta}$ (aprovecho para recordar que $N$ depende de $\Delta$). En términos matemáticos esto es:

$\text{Def.}$ Dada una sucesión $\left\lbrace a_n \right\rbrace_{n=1}^{\infty},$ decimos que $\lim_{n \rightarrow \infty} a_n = \infty \ (-\infty)$ si $$ \forall \Delta > 0 \ \  \exists N_{\Delta} \in \mathbb{N}: \ a_n>\Delta \  (a_n<-\Delta)  \ \forall n>N_{\Delta}$$
$\text{Obs.}$ Si tenemos una sucesión $\left\lbrace a_n \right\rbrace_{n=1}^{\infty}$ tal que $\lim_{n \rightarrow \infty} |a_n| = \infty,$ es decir, que la distancia de $a_n$ a $0$ se hace arbitrariamente grande (podemos pensar que $a_n$ tiende a $\infty$ o a $-\infty$ o que oscila pero cada vez se aleja más del $0,$ tanto que sus distancias a él se hacen arbitrariamente grandes) entonces la sucesión $b_n = \frac{1}{a_n}$ tiene $\lim_{n \rightarrow \infty} b_n = 0.$

Sea $\varepsilon>0$ (la idea aquí es que como $\Delta$ se puede hacer arbitrariamente grande, $\frac{1}{\Delta}$ se hace arbitrariamente pequeño, por tanto podemos pensar en $\varepsilon$ como $\frac{1}{\Delta},$ o lo que es lo mismo, $\Delta = \frac{1}{\varepsilon}$). Lo que queremos es $|b_n|<\varepsilon,$ o lo que es lo mismo: $\frac{1}{|a_n|}<\varepsilon,$ que equivale a $\frac{1}{\varepsilon}<|a_n|.$ Sin embargo, como $|a_n|$ tiende a $\infty,$ sabemos que para todo $\Delta>0: \ \ |a_n|> \Delta$ si $n>N=N_{\Delta}=N(\Delta).$ Como se cumple para todo $\Delta>0$ en particular podemos elegir $\Delta= \frac{1}{\varepsilon},$ y entonces tendremos que $|b_n|<\varepsilon$ si $n > N\left( \Delta \right)=N\left( \frac{1}{\varepsilon} \right).$ Es decir, tomando $N_1(\varepsilon)=N\left( \frac{1}{\varepsilon} \right)$ tenemos:$$|b_n|<\varepsilon \text{ si } n>N_1(\varepsilon) $$y como el $\varepsilon>0$ que hemos tomado era arbitrario, esto vale para todo $\varepsilon >0,$ y por tanto tenemos que $|b_n|$ tiende a $0$ cuando $n$ tiende a $\infty.$


EJEMPLOS

Por último vamos a ver algunos ejemplos de sucesiones cuyo límite podemos calcular utilizando lo que sabemos.

  1. La sucesión $\left\lbrace \frac{1}{n} \right\rbrace_{n=1}^{\infty}$ sabemos que tiende a $0$ cuando $n$ tiende a $\infty,$ lo vimos en el post anterior. Sin embargo podemos deducirlo también utilizando la última observación: como la sucesión $b_n=|n|=n$ tiende a $\infty$ cuando $n$ tiende a $\infty,$ entonces $\frac{1}{b_n}=\frac{1}{n}$ tiene que tender a $0.$

  2. Vamos a ver si la sucesión $a_n=\frac{n^2+5n+2}{2n^2+3}$ tiene límite:$$\frac{n^2+5n+2}{2n^2+3}=\frac{n^2+5n+2}{2n^2+3} \cdot \frac{n^2}{n^2}=\frac{\frac{n^2+5n+2}{n^2}}{\frac{2n^2+3}{n^2}}=\frac{1+\frac{5}{n}+\frac{2}{n^2}}{2+\frac{3}{n^2}}$$y ahora: $$ \lim_{n \rightarrow \infty} \frac{n^2+5n+2}{2n^2+3} =  \frac{ \lim_{n \rightarrow \infty} 1+\frac{5}{n}+\frac{2}{n^2}}{ \lim_{n \rightarrow \infty} 2+\frac{3}{n^2}}=\frac{1}{2}.$$Aquí hemos utilizado un pequeño truco que consiste en multiplicar y dividir por lo mismo: $n^2.$ Para ello necesitamos que $n \neq 0,$ pero en este caso $n \in \mathbb{N}$ luego $n \geq 1.$

  3. La sucesión $a_n=\frac{\sin(f(n))}{n}$ donde $f: \mathbb{N} \longrightarrow \mathbb{R}$ es una función (podemos pensar en $f$ como si fuera una sucesión, de hecho), tiende a $0$ cuando $n$ tiende a $\infty.$ La razón es que $\frac{1}{n}$ tiende a $0$ cuando $n$ tiende a $\infty$ y $\sin(x)$ es acotada para todo $x \in \mathbb{R},$ puesto que $-1 \leq \sin(x) \leq 1.$ Por tanto el producto tiende a $0$ cuando $n$ tiende a $\infty.$

  4. Por último vamos a ver un caso en el que tendremos que utilizar el Teorema del Sándwich. Consideramos la sucesión: $$\left\lbrace \frac{\sin(\frac{1}{n})}{\frac{1}{n}} \right\rbrace_{n=1}^{\infty}.$$Si intentamos calcular el límite directamente nos queda $\frac{\sin(0)}{0}=\frac{0}{0},$ que no es ningún número, esto es una indeterminación: no nos ha dado ningún tipo de información. Ocurre lo mismo que si en el primero de los ejemplos intentamos sustituir $n$ por $\infty,$ queda $\frac{\infty}{\infty}$ que no lo podemos interpretar de ninguna forma. (Y de hecho $\frac{1}{\infty} \neq 0,$ puesto que $\infty$ no es un número. La forma de interpretar esto la veremos más adelante). En este caso vamos a utilizar las estimaciones:$$ \sin \left( \frac{1}{n} \right)\leq \frac{1}{n} \leq \tan \left( \frac{1}{n} \right) $$para aquellos $n$ tales que $0<\frac{1}{n}<\frac{\pi}{2} \Longleftrightarrow 0<\frac{2}{\pi}<n$ entonces $\sin\left( \frac{1}{n} \right)>0$ y podemos invertir la desigualdad y dividir por $\sin\left( \frac{1}{n} \right),$ lo que resulta en: $$ \frac{\sin\left( \frac{1}{n} \right)}{\tan \left( \frac{1}{n} \right)} \leq \frac{\sin\left( \frac{1}{n} \right)}{\frac{1}{n}} \leq \frac{\sin\left( \frac{1}{n} \right)}{\sin\left( \frac{1}{n} \right)}$$o lo que es lo mismo: $$\cos\left( \frac{1}{n} \right) \leq \frac{\sin\left( \frac{1}{n} \right)}{\frac{1}{n}} \leq 1. $$Ahora lo que nos gustaría es que $\lim_{n \rightarrow \infty} \cos\left( \frac{1}{n} \right) = 1,$ para poder aplicar el Teorema del Sándwich y ver que el límite de nuestra sucesión es en realidad $1.$ Pues bien, esto lo veremos bastante más adelante, pero por ahora vamos a creérnoslo: la función $\cos(x)$ es continua en $\mathbb{R}$ y por tanto es continua en $0,$ lo cual justamente nos da lo que queremos. Sin embargo la afirmación algo más débil pero que para nuestro ejemplo es justamente la que necesitamos (la de que $\lim_{n \rightarrow \infty} \cos\left( \frac{1}{n} \right) = 1=\cos(0)$) se puede probar teniendo en cuenta que $\cos^2\left( \frac{1}{n} \right) + \sin^2\left( \frac{1}{n} \right)=1,$ probando que $\lim_{n \rightarrow \infty} \sin\left( \frac{1}{n} \right) =\sin(0)=0,$ lo cual podemos hacerlo con la estimación $-t\leq \sin(-t)=-\sin(t) \leq \sin(t) \leq t$ para $t>0$ cercano a $0,$ y probando que si $a_n\geq 0$ converge a $A \geq 0$ entonces $\sqrt{a_n}$ converge a $\sqrt{A}.$ De cualquier manera, si nos creemos que el coseno es una función continua (lo explicaremos más adelante) entonces podemos aplicar el Teorema del Sándwich y ver que nuestra sucesión tiende a $1:$ $$ \lim_{n \rightarrow \infty} \frac{\sin(\frac{1}{n})}{\frac{1}{n}} = 1$$

Comentarios

Frecuentes

Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

Aplicaciones y Cardinales