Núcleo e Imagen de una Aplicación Lineal

En el post anterior definimos lo que eran las aplicaciones lineales:
$\text{Def.}$ Dados $V$ y $W$ $K-$espacios vectoriales y $T: V \longrightarrow W$ una aplicación de $V$ en $W,$ decimos que $T$ es lineal si:
  1. $T(u+v)=T(u)+T(v)$ para todo $u,v \in V.$
  2. $T(\lambda u) = \lambda T(u)$ para todo $\lambda \in K, \ u \in V.$
y estuvimos discutiendo sobre las aplicaciones lineales biyectivas, los isomorfismos lineales. También vimos cómo hacer el cambio de base en un espacio vectorial (de dimensión finita). Lo que vamos a ver hoy es que todas las aplicaciones lineales definen unos sub-espacios particulares y estos caracterizan algunas de las cualidades de las aplicaciones. Además, tanto la imagen como la preimagen de un sub-espacio vectorial por una aplicación lineal son sub-espacios vectoriales.
$\text{Prop.}$ Sean $E, V$ dos $K-$espacios vectoriales, $T:E \longrightarrow V$ una aplicación lineal de $E$ en $V$ y $F \subset E$ y $L \subset V$ dos sub-espacios vectoriales de $E$ y $V$ respectivamente. Entonces $T(F)$ y $T^{-1}(L)$ son ambos sub-espacios vectoriales de $V$ y $E$ respectivamente.

Sean $E,V,F,L$ y $T$ como los de la proposición. Vamos a comprobar que ambos son sub-espacios simplemente comprobando que cumplen las dos condiciones necesarias para serlo:
  1. Para $T(F)$ comprobamos:

    Sean $v,w \in T(F).$ Existen $e,u \in F$ tales que $v=T(e)$ y $w=T(u).$ Entonces $v+w=T(e)+T(u)=T(e+u),$ y como $e+u \in F$ por ser $F$ sub-espacio, se tiene $v+w \in T(F).$

    Sean $\lambda \in K$ y $u=T(e) \in T(F).$ Entonces $\lambda u = \lambda T(e) =T ( \lambda e)$ y como $\lambda e \in F$ entonces $\lambda u \in T(F).$

  2. Para $T^{-1}(L)$ comprobamos:

    Sean $e,u \in T^{-1}(L).$ Entonces $T(e)=v$ y $T(u)=w$ con $v,w \in L.$ Entonces $L \ni v+w=T(e)+T(u)=T(e+u),$ de manera que $e+u \in T^{-1}(L).$

    Sean $\lambda \in K$ y $e \in T^{-1}(L).$ Entonces $T(\lambda e) = \lambda T(e) \in L$ por ser $L$ sub-espacio, luego $\lambda e \in T^{-1}(L).$


NÚCLEO E IMAGEN

Cuando tenemos una aplicación lineal hay dos conjuntos que son de especial importancia: el núcleo de la aplicación y su imagen:
$\text{Def.}$ Sean $E,V$ dos $K-$espacios vectoriales y $T:E \longrightarrow V$ una aplicación lineal de $E$ en $V.$ Se definen:
  1. El núcleo (o kernel) de $T:$ $$ \text{Ker}(T)=\left\lbrace u \in E: \ T(u)=0_V \right\rbrace $$
  2. La imagen de $T:$ $$\text{Im}(T)=\left\lbrace v \in V: \ \exists u \in E \text{  y } v=T(u) \right\rbrace$$
Pues bien, resulta que ambos conjuntos son sub-espacios:
$\text{Prop.}$ Sean $E,V$ dos $K-$espacios vectoriales y $T:E \longrightarrow V$ una aplicación lineal de $E$ en $V.$ Entonces $\text{Ker}(T)$ es un sub-espacio vectorial de $E$ e $\text{Im}(T)$ es un sub-espacio vectorial de $V.$

  1. Vamos a comprobar que $\text{Ker}(T)$ es un sub-espacio de $E.$

    Sean $u,v \in \text{Ker}(T),$ entonces $u+v \in \text{Ker}(T)$ si y sólo si $T(u+v)=0_V,$ pero como $T$ es lineal: $T(u+v)=T(u)+T(v)=0_V,$ luego $u+v \in \text{Ker}(T).$

    Sean $u \in \text{Ker}(T), \ \lambda \in K,$ entonces $\lambda u \in \text{Ker}(T)$ si y sólo si $T(\lambda u) = 0_V,$ pero al ser $T$ lineal: $T( \lambda u) = \lambda T(u) = \lambda 0_V = 0_V.$ Así $\lambda u \in \text{Ker}(T).$

  2. Ahora veamos que $\text{Im}(T)$ es sub-espacio de $V.$

    Sean $v_1,v_2 \in \text{Im}(T).$ Quiero ver que $v_1 + v_2 \in \text{Im}(T).$ Existen $u_1, u_2$ tales que $T(u_1)=v_1$ y $T(u_2)=v_2.$ Ahora, como $T$ es lineal: $v_1 + v_2 = T(u_1) + T(u_2) = T(u_1+u_2)$ y por tanto $v_1+v_2$ es imagen de $u_1+u_2$ y se tiene $v_1+v_2 \in \text{Im}(T).$

    Sean $v \in \text{Im}(T), \ \lambda \in K.$ Quiero ver que $\lambda v \in \text{Im}(T).$ Existe $u \in E: \ T(u)=v,$ de manera que $\lambda v = \lambda T(u),$ y como $T$ es lineal esto es $\lambda v = T(\lambda u),$ de manera que $\lambda v \in \text{Im}(T).$

En particular esto quiere decir (junto con la primera proposición que hemos visto en el post) que la pre-imagen por $T$ del sub-espacio imagen es otro sub-espacio. Vamos a ver algunos ejemplos de aplicaciones lineales y sus núcleos e imágenes.

La aplicación $T:\mathbb{R}^3 \longrightarrow \mathbb{R}^2$ dada por $T(x,y,z)=(3x+2y-z,x+z)$ es lineal. Vamos a ver cómo son su núcleo y su imagen:
  1. $\text{Ker}(T)= \left\lbrace (x,y,z) \in \mathbb{R}^3: T(x,y,z)=(0,0) \right\rbrace$ y $T(x,y,z)=(0,0)$ equivale a $3x+2y-z=0, \ x+z=0.$ Esto es un sistema de ecuaciones en el que podemos dejar $x$ e $y$ en función de $z$ y obtenemos finalmente: $$\text{Ker}(T)= \left\lbrace (-z,2z,z) \in \mathbb{R}^3: z \in \mathbb{R} \right\rbrace$$
  2. Ahora la imagen de $T$ es el sub-espacio: $$\text{Im}(T)= \left\lbrace (u,v) \in \mathbb{R}^2: \ \exists (x,y,z) \in \mathbb{R}^3 \text{ y } T(x,y,z)=(u,v)\right\rbrace.$$Por ser sub-espacio de $\mathbb{R}^2$ podemos comprobar simplemente cuántos vectores linealmente independientes de $\mathbb{R}^2$ están en la imagen de $T.$ Si sólo hay uno, la imagen es un sub-espacio de dimensión $1$ de $\mathbb{R}^2,$ y si hay $2,$ la imagen es $\mathbb{R}^2.$ Es fácil comprobar que $\lbrace T(0,1,0),T(1,-\frac{3}{2},0) \rbrace=\lbrace (1,0),(0,1) \rbrace$ y por tanto estamos en el segundo caso y se tiene $\text{Im}(T)=\mathbb{R}^2.$


La aplicación $T:\mathbb{M}_2 \left( \mathbb{R} \right) \longrightarrow \mathbb{M}_2 \left( \mathbb{R} \right)$ con: $$T \left( \begin{pmatrix} a & b \\ c & d \end{pmatrix} \right)  = \begin{pmatrix} a+b & 2a \\ 2b & c+d \end{pmatrix}$$es una aplicación lineal. Vamos a identificar su núcleo y su imagen:
  1. El núcleo de $T$ es el conjunto de matrices cuya imagen es la matriz nula. Por tanto toda matriz que esté en $\text{Ker}(T)$ ha de cumplir: $$ \begin{cases} a+b=0 \\ 2a=0 \\ 2b=0 \\ c+d=0 \end{cases}$$y de este sistema se obtiene $a=b=0, c=-d,$ de manera que: $$ \text{Ker}(T)= \left\lbrace \begin{pmatrix} 0 & 0 \\ -d & d \end{pmatrix} \in \mathbb{M}_2 \left( \mathbb{R} \right): d \in \mathbb{R} \right\rbrace.$$
  2. La imagen de $T$ será un sub-espacio vectorial de $\mathbb{M}_2 \left( \mathbb{R} \right),$ de manera que para determinarla nos basta encontrar una base. Además, la matriz $\begin{pmatrix} 0 & 0 \\ -1 & 1 \end{pmatrix}$ genera el núcleo, de manera que si encontramos una base del espacio de matrices en la que esté la matriz $\begin{pmatrix} 0 & 0 \\ -1 & 1 \end{pmatrix},$ la imagen de $T$ estará generada por las imágenes del resto de vectores de la base (esta es una idea que utilizaremos en una demostración posterior). Basta tomar dichos tres vectores como las matrices: $$\begin{align} \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} ,\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}. \end{align}$$Sus imágenes por $T$ son las matrices: $$ \begin{pmatrix} 1 & 2 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 1 & 0 \\ 2 & 0 \end{pmatrix} ,\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.$$Como estas tres matrices de $(1)$ junto con la matriz $\begin{pmatrix} 0 & 0 \\ -1 & 1 \end{pmatrix}$ forman una base de $\mathbb{M}_2 \left( \mathbb{R} \right),$ y $T$ es lineal, generan todo el espacio de salida, y como esta última matriz genera el núcleo, las imágenes de las otras tres generan el sub-espacio imagen, luego: $$ \text{Im}(T)= \left\langle \begin{pmatrix} 1 & 2 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 1 & 0 \\ 2 & 0 \end{pmatrix} ,\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} \right\rangle.$$


En los dos ejemplos parece que $\text{dim}(E)=\text{dim}(\text{Ker}(T))+\text{dim}(\text{Im}(T)).$ El sentido que esto tiene es que si tomamos un vector y hacemos su imagen, o bien esta es $0$ o bien está en el sub-espacio imagen, de manera que lo grande que es $E$ será una medida de lo grandes que sean $\text{Im}(T)$ y $\text{Ker}(T).$ Para demostrarlo, tenemos que ver antes unos pocos lemas sencillos:
$\text{Lema 1.}$ Sea $E$ un $K-$espacio vectorial de dimensión $n \in \mathbb{N}$ y $F \subset E$ un sub-espacio de $E.$ Entonces $\text{dim}(F) \leq \text{dim}(E).$

Por ser $F$ un espacio vectorial, tiene una base $\mathcal{B}_F$ de vectores de $E.$ Si el cardinal (el número de elementos) de dicha base fuese mayor que $n$ entonces no podría ser un sistema libre, de acuerdo con lo que ya hemos visto, de manera que la dimensión de $F$ tiene que ser menor o igual que la de $E.$ Si $F$ y $E$ tuvieran la misma dimensión, entonces toda base de $E$ es base de $F$ y viceversa, de manera que $F=E$ (el argumento pasa por el lema $2$).

$\text{Lema 2.}$ Sea $E$ un $K-$espacio vectorial de dimensión $n \in \mathbb{N}.$ Cualquier sistema libre de $n$ vectores es base de $E.$

Sea $S$ un sistema libre de $n$ vectores. Supongamos que no fuera base. Como es libre y no es base es porque no genera $E,$ es decir, hay un vector de $E,$ digamos $v,$ que es linealmente independiente de todos los de $S.$ Por tanto el sistema $S \cup \lbrace v \rbrace$ sigue siendo libre. Sin embargo este tiene $n+1>n$ vectores, y como $E$ es de dimensión $n$ el sistema no puede ser libre, de manera que hemos llegado a una contradicción y se tiene que $S$ es base.

$\text{Lema 3.}$ Sea $E$ un $K-$espacio vectorial de dimensión $n \in \mathbb{N}$ y sea $S=\left\lbrace e_1, \ ... \ , e_m \right\rbrace$ un sistema libre con $m<n.$ Entonces existen $n-m$ vectores $\left\lbrace u_{m+1}, \ ... \ , u_{n} \right\rbrace$ tales que $S \cup \left\lbrace u_{m+1}, \ ... \ , u_{n} \right\rbrace$ es una base de $E.$

De acuerdo con lo que hemos demostrado en el lema $2,$ únicamente nos hace falta ver que existen los $u_i$ y que son todos linealmente independientes. Supongamos que no existiesen dichos $u_i.$ Entonces tendríamos que para todo vector $v$ de $E,$ $v$ es linealmente dependiente de los vectores de $S,$ pero entonces $S$ tendría que generar $E,$ y por tanto sería una base de $E,$ pues es un sistema libre y generaría todo $E.$ En ese caso tendría que ser $|S|=n,$ pues ya hemos visto que todas las bases de un espacio vectorial tienen el mismo cardinal. Como $|S|=m <n$ hemos llegado a una contradicción, y por tanto lo que hemos asumido debe ser erróneo. Sin embargo esto no termina de demostrarlo: hemos conseguido ver que existe un $v \in E$ que es linealmente independiente de los vectores de $S.$ Lo que debemos hacer ahora es nombrar $v=u_{m+1}$ y considerar $S^1=S \cup \lbrace u_{m+1} \rbrace.$ Si $m+1 <n$ se hace el mismo argumento y así todo el rato.

En el paso $i$ se tiene: $$S^{i-1} =\left\lbrace e_1, \ ... \ , e_m, u_{m+1}, \ ... \ , u_{m+i-1} \right\rbrace.$$Si $m+i-1<n$ entonces se aplica el mismo razonamiento y se llega a: $$ S^{i} =\left\lbrace e_1, \ ... \ , e_m, u_{m+1}, \ ... \ , u_{m+i-1},u_{m+i} \right\rbrace.$$
En el paso $n-m$ se tiene: $$S^{n-m-1}=\left\lbrace e_1, \ ... \ , e_m, u_{m+1}, \ ... \ , u_{n-1} \right\rbrace.$$De nuevo se aplica el mismo razonamiento y se llega a: $$ S^{n-m} =\left\lbrace e_1, \ ... \ , e_m, u_{m+1}, \ ... \ , u_{n} \right\rbrace.$$Como ya hemos conseguido un sistema libre de $n$ vectores, éste ha de ser base de $E.$

Ahora vamos con el teorema:
$\text{Teorema}$ (Imagen - Núcleo). Sean $E,V$ dos $K-$espacios vectoriales de dimensiones $n$ y $m$ respectivamente, y sea $T:E \longrightarrow V$ una aplicación lineal de $E$ en $V.$ Entonces: $$ \text{dim}(E)=\text{dim}(\text{Im}(T))+\text{dim}(\text{Ker}(T)).$$

Sean $E,V$ y $T$ como en el enunciado. Sabemos que $\text{Ker}(T) \subset E$ es un sub-espacio vectorial de $E,$ y por tanto tiene una base: $$\mathcal{B}_{\text{Ker}(T)} = \left\lbrace e_1, \ ... \ , e_l \right\rbrace$$de vectores de $E$ linealmente independientes y que generan $\text{Ker}(T).$ Por ser sub-espacio de $E,$ se tiene que $l \leq n.$

Caso $l=n:$
Si $l=n$ entonces $E=\text{Ker}(T)$ y por tanto $T(u)=0_V$ para todo $u \in E,$ luego $\text{Im}(T)=\lbrace 0_V \rbrace$ cuya dimensión es $0,$ y el teorema es evidente.

Caso $l<n:$
Si $l<n$ entonces, utilizando el lema $3,$ podemos rellenar: $$\mathcal{B}_{\text{Ker}(T)} = \left\lbrace e_1, \ ... \ , e_l \right\rbrace$$a: $$\mathcal{B}_E=\left\lbrace e_1, \ ... \ , e_l, u_{l+1}, \ ... \ , u_n \right\rbrace$$que es una base de $E.$ Ahora veamos cómo es la imagen de $T.$ Si $v \in \text{Im}(T)$ entonces $v=T(u)$ donde $u \in E.$ Así, podemos escribir: $$\begin{align*} v &=T\left( \lambda_1 e_1 + \ ... \ + \lambda_l e_l + \lambda_{l+1} u_{l+1} + \ ... \ + \lambda_{n} u_n \right) = \\ &= \lambda_1 T(e_1) + \ ... \ + \lambda_l T(e_l) + \lambda_{l+1} T(u_{l+1}) + \ ... \ + \lambda_{n} T(u_n) = \\ &= \lambda_{l+1} T(u_{l+1}) + \ ... \ + \lambda_{n} T(u_n) \end{align*}$$de manera que $v$ puede expresarse como combinación lineal de los vectores $T(u_{l+1}), \ ... \ , T(u_n).$ Nos gustaría ver que estos son base de la imagen, para lo cual únicamente hace falta ver que son linealmente independientes (pues ya la generan). Para verlo planteamos la ecuación: $$\begin{align*} 0_V &= \lambda_{l+1} T(u_{l+1}) + \ ... \ + \lambda_{n} T(u_n)  \\ \\ 0_V &= T\left(\lambda_{l+1} u_{l+1} + \ ... \ + \lambda_{n} u_n \right) \end{align*}$$de manera que tiene que tenerse: $\lambda_{l+1} u_{l+1} + \ ... \ + \lambda_{n} u_n \in \text{Ker}(T),$ pero los vectores $u_i$ son todos linealmente independientes de los vectores $e_j,$ que son los que generan el núcleo, de manera que esto ocurre únicamente si $\lambda_i=0$ para $i=l+1, ... , n,$ lo cual justamente prueba la independencia lineal de $T(u_{l+1}), \ ... \ , T(u_n).$ Por tanto la dimensión de la imagen de $T$ es $n-l.$ Como la dimensión del núcleo de $T$ es $l$ y la de $E$ es $n$ se tiene: $$\text{dim}(E)=\text{dim}(\text{Im}(T))+\text{dim}(\text{Ker}(T)).$$


INYECTIVIDAD, SOBREYECTIVIDAD Y BIYECTIVIDAD

Ahora que hemos demostrado estos resultados vamos a ver cómo se relacionan las cualidades de ser aplicación lineal inyectiva, sobreyectiva o biyectiva con los sub-espacios núcleo e imagen.

Inyectividad
Para que una aplicación sea inyectiva se tiene que cumplir que si dos elementos en la imagen son iguales, sus preimágenes han de ser iguales (o, equivalentemente, si dos elementos son distintos, sus imágenes han de ser también distintas). Esta condición podemos formularla en términos de espacios vectoriales. Supongamos que $E,V$ son $K-$espacios vectoriales de dimensiones $n,m \in \mathbb{N}$ respectivamente y $T:E \longrightarrow V$ es una aplicación lineal de $E$ en $V.$ Vamos a ver a qué equivale la condición de que $T$ sea inyectiva. Sean $u,v \in E:$ $$\begin{align*} T(u) &=T(v) \\ T(u)-T(v) &= 0_V \\ T(u)+T(-v) &= 0_V \\ T(u-v) &= 0_V  \end{align*}$$es decir, $u-v \in \text{Ker}(T).$ Para que $T$ sea inyectiva tiene que darse $u=v \Longleftrightarrow u-v=0_E.$ Es muy sencillo ver que $0_E \in \text{Ker}(T),$ pues $T(0_E)=T(0_E+0_E)=T(0_E)+T(0_E)$ luego $T(0_E)=0_V.$ Por tanto, para que $T$ sea inyectiva necesitamos que $u-v=0_E,$ que se cumple si $\text{Ker}(T)=\lbrace 0_E \rbrace.$ Si por otro lado tenemos que $T$ es inyectiva, entonces se cumple que $\text{Ker}(T)=\lbrace 0_E \rbrace.$ Vamos a enunciarlo formalmente:
$\text{Prop.}$ Sean $E,V$ dos $K-$espacios vectoriales y $T:E \longrightarrow V$ una aplicación lineal de $E$ en $V.$ Entonces $T$ es inyectiva si y sólo si $\text{Ker}(T)=\lbrace 0_E \rbrace.$

Tenemos que demostrar las dos implicaciones:

$\Longrightarrow )$ Supongamos que $T$ es inyectiva. Entonces si $u \in \text{Ker}(T)$ tiene $T(u)=0_V=T(0_E)$ y por ser $T$ inyectiva, $u=0_E,$ de manera que $\text{Ker}(T)=\lbrace 0_E \rbrace.$

$\Longleftarrow )$ Supongamos que $\text{Ker}(T)=\lbrace 0_E \rbrace.$ Entonces $T(u)=T(v)$ si y sólo si $u-v \in \text{Ker}(T),$ y por tanto $u-v=0_E,$ de donde se llega a $u=v$ y por tanto $T$ es inyectiva.

Por convenio, la dimensión del conjunto vacío visto como espacio vectorial es $0,$ y es la misma que la dimensión del espacio trivial: $\lbrace 0_E \rbrace,$ de manera que si $T:E \longrightarrow V$ es inyectiva, según el teorema anterior se tiene $\text{dim}(E)=\text{dim}(\text{Im}(T))$ y $\text{dim}(\text{Ker}(T))=0,$ y como $\text{dim}(\text{Im}(T)) \leq \text{dim}(V),$ llegamos a que si $T$ es inyectiva: $$\text{dim}(E) \leq \text{dim}(V).$$

Sobreyectividad
Para que $T:E \longrightarrow V$ sea sobreyectiva se tiene que tener: $\text{Im}(T)=V$ como conjuntos, y como ambos son espacios vectoriales, tiene que ser el mismo. Por tanto, cualquier base de $V$ tiene que ser base de $\text{Im}(T)$ y al revés. Además, según el teorema anterior, en este caso se tiene: $\text{dim}(E)=\text{dim}(\text{Ker}(T))+\text{dim}(V).$ Como $\text{dim}(\text{Ker}(T)) \geq 0$ tenemos: $$ \text{dim}(E) \geq \text{dim}(V).$$

Biyectividad
Por último, $T:E \longrightarrow V$ es biyectiva si a la vez es inyectiva y sobreyectiva, de manera que se tiene: $$\text{dim}(E)=\text{dim}(V).$$Además, por ser $T$ inyectiva, la imagen de un sistema libre es otro sistema libre, y por ser sobreyectiva, la imagen de una base es otra base. Veámoslo:
$\text{Prop.}$ Sean $E,V$ dos $K-$espacios vectoriales de dimensión $n \in \mathbb{N}$ y $T:E \longrightarrow V$ una biyección lineal. Si $\mathcal{B}$ es base de $E,$ entonces $T(\mathcal{B})$ es base de $V.$

Denotamos $\mathcal{B}=\left\lbrace e_1, \ ... \ , e_n \right\rbrace.$ $T(\mathcal{B})$ es base si los vectores $T(e_1), \ ... \ , T(e_n)$ son linealmente independientes. Planteamos la ecuación: $$\begin{align*} \lambda_1 T(e_1) + \ ... \ + \lambda_n T(e_n) &=0_V \\ T(\lambda_1 e_1) + \ ... \ +  T(\lambda_n e_n) &=0_V \\ T(\lambda_1 e_1 + \ ... \ + \lambda_n e_n) &=0_V \end{align*}$$y esto ocurre si y sólo si $\lambda_1 e_1 + \ ... \ + \lambda_n e_n \in \text{Ker}(T),$ pero como $T$ es inyectiva por ser también biyectiva: $\text{Ker}(T)=\lbrace 0_E \rbrace$ y se tiene que tener: $$\lambda_1 e_1 + \ ... \ + \lambda_n e_n = 0_E.$$Como $\mathcal{B}$ es base, la solución a esta ecuación es única y es $\lambda_1 = \ ... \ = \lambda_n=0_K,$ de manera que $$T(\mathcal{B})=\left\lbrace T(e_1), \ ... \ , T(e_n) \right\rbrace$$es base de $V,$ pues es un sistema linealmente independiente con $n$ vectores y $\text{dim}(V)=n.$

Llegamos a la conclusión que la dimensión de los espacios establece ciertas condiciones necesarias para la inyectividad y sobreyectividad de las aplicaciones lineales: si $T:E \longrightarrow V$ es lineal y $\text{dim}(E) > \text{dim}(V),$ $T$ no puede ser inyectiva, y si $\text{dim}(E) < \text{dim}(V),$ $T$ no puede ser sobreyectiva. Por último, si $\text{dim}(E) \neq \text{dim}(V),$ $T$ no puede ser biyectiva.

Comentarios

Frecuentes

Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

El Teorema del Sándwich

Aplicaciones y Cardinales