Núcleo e Imagen de una Aplicación Lineal
En el
post anterior
definimos lo que eran las aplicaciones lineales:
$\text{Def.}$ Dados $V$ y $W$ $K-$espacios vectoriales y $T: V \longrightarrow
W$ una aplicación de $V$ en $W,$ decimos que $T$ es lineal si:
- $T(u+v)=T(u)+T(v)$ para todo $u,v \in V.$
- $T(\lambda u) = \lambda T(u)$ para todo $\lambda \in K, \ u \in V.$
y estuvimos discutiendo sobre las aplicaciones lineales biyectivas, los
isomorfismos lineales. También vimos cómo hacer el
cambio de base
en un espacio vectorial (de dimensión finita). Lo que vamos a ver hoy es que
todas las aplicaciones lineales definen unos
sub-espacios
particulares y estos caracterizan algunas de las cualidades de las
aplicaciones. Además, tanto la imagen como la preimagen de un sub-espacio
vectorial por una aplicación lineal son sub-espacios vectoriales.
$\text{Prop.}$ Sean $E, V$ dos $K-$espacios vectoriales, $T:E \longrightarrow
V$ una aplicación lineal de $E$ en $V$ y $F \subset E$ y $L \subset V$ dos
sub-espacios vectoriales de $E$ y $V$ respectivamente. Entonces $T(F)$ y
$T^{-1}(L)$ son ambos sub-espacios vectoriales de $V$ y $E$ respectivamente.
Sean $E,V,F,L$ y $T$ como los de la proposición. Vamos a comprobar que ambos
son sub-espacios simplemente comprobando que cumplen las
dos condiciones necesarias
para serlo:
-
Para $T(F)$ comprobamos:
Sean $v,w \in T(F).$ Existen $e,u \in F$ tales que $v=T(e)$ y $w=T(u).$ Entonces $v+w=T(e)+T(u)=T(e+u),$ y como $e+u \in F$ por ser $F$ sub-espacio, se tiene $v+w \in T(F).$
Sean $\lambda \in K$ y $u=T(e) \in T(F).$ Entonces $\lambda u = \lambda T(e) =T ( \lambda e)$ y como $\lambda e \in F$ entonces $\lambda u \in T(F).$
-
Para $T^{-1}(L)$ comprobamos:
Sean $e,u \in T^{-1}(L).$ Entonces $T(e)=v$ y $T(u)=w$ con $v,w \in L.$ Entonces $L \ni v+w=T(e)+T(u)=T(e+u),$ de manera que $e+u \in T^{-1}(L).$
Sean $\lambda \in K$ y $e \in T^{-1}(L).$ Entonces $T(\lambda e) = \lambda T(e) \in L$ por ser $L$ sub-espacio, luego $\lambda e \in T^{-1}(L).$
NÚCLEO E IMAGEN
Cuando tenemos una aplicación lineal hay dos conjuntos que son de especial
importancia: el núcleo de la aplicación y su imagen:
$\text{Def.}$ Sean $E,V$ dos $K-$espacios vectoriales y $T:E \longrightarrow
V$ una aplicación lineal de $E$ en $V.$ Se definen:
- El núcleo (o kernel) de $T:$ $$ \text{Ker}(T)=\left\lbrace u \in E: \ T(u)=0_V \right\rbrace $$
- La imagen de $T:$ $$\text{Im}(T)=\left\lbrace v \in V: \ \exists u \in E \text{ y } v=T(u) \right\rbrace$$
Pues bien, resulta que ambos conjuntos son sub-espacios:
$\text{Prop.}$ Sean $E,V$ dos $K-$espacios vectoriales y $T:E \longrightarrow
V$ una aplicación lineal de $E$ en $V.$ Entonces $\text{Ker}(T)$ es un
sub-espacio vectorial de $E$ e $\text{Im}(T)$ es un sub-espacio vectorial de
$V.$
-
Vamos a comprobar que $\text{Ker}(T)$ es un sub-espacio de $E.$
Sean $u,v \in \text{Ker}(T),$ entonces $u+v \in \text{Ker}(T)$ si y sólo si $T(u+v)=0_V,$ pero como $T$ es lineal: $T(u+v)=T(u)+T(v)=0_V,$ luego $u+v \in \text{Ker}(T).$
Sean $u \in \text{Ker}(T), \ \lambda \in K,$ entonces $\lambda u \in \text{Ker}(T)$ si y sólo si $T(\lambda u) = 0_V,$ pero al ser $T$ lineal: $T( \lambda u) = \lambda T(u) = \lambda 0_V = 0_V.$ Así $\lambda u \in \text{Ker}(T).$
-
Ahora veamos que $\text{Im}(T)$ es sub-espacio de $V.$
Sean $v_1,v_2 \in \text{Im}(T).$ Quiero ver que $v_1 + v_2 \in \text{Im}(T).$ Existen $u_1, u_2$ tales que $T(u_1)=v_1$ y $T(u_2)=v_2.$ Ahora, como $T$ es lineal: $v_1 + v_2 = T(u_1) + T(u_2) = T(u_1+u_2)$ y por tanto $v_1+v_2$ es imagen de $u_1+u_2$ y se tiene $v_1+v_2 \in \text{Im}(T).$
Sean $v \in \text{Im}(T), \ \lambda \in K.$ Quiero ver que $\lambda v \in \text{Im}(T).$ Existe $u \in E: \ T(u)=v,$ de manera que $\lambda v = \lambda T(u),$ y como $T$ es lineal esto es $\lambda v = T(\lambda u),$ de manera que $\lambda v \in \text{Im}(T).$
En particular esto quiere decir (junto con la primera proposición que hemos
visto en el post) que
la pre-imagen por $T$ del sub-espacio imagen es otro sub-espacio. Vamos
a ver algunos ejemplos de aplicaciones lineales y sus núcleos e imágenes.
La aplicación $T:\mathbb{R}^3 \longrightarrow \mathbb{R}^2$ dada por
$T(x,y,z)=(3x+2y-z,x+z)$ es lineal. Vamos a ver cómo son su núcleo y su
imagen:
-
$\text{Ker}(T)= \left\lbrace (x,y,z) \in \mathbb{R}^3: T(x,y,z)=(0,0)
\right\rbrace$ y $T(x,y,z)=(0,0)$ equivale a $3x+2y-z=0, \ x+z=0.$ Esto es
un sistema de ecuaciones en el que podemos dejar $x$ e $y$ en función de
$z$ y obtenemos finalmente: $$\text{Ker}(T)= \left\lbrace (-z,2z,z) \in
\mathbb{R}^3: z \in \mathbb{R} \right\rbrace$$
- Ahora la imagen de $T$ es el sub-espacio: $$\text{Im}(T)= \left\lbrace (u,v) \in \mathbb{R}^2: \ \exists (x,y,z) \in \mathbb{R}^3 \text{ y } T(x,y,z)=(u,v)\right\rbrace.$$Por ser sub-espacio de $\mathbb{R}^2$ podemos comprobar simplemente cuántos vectores linealmente independientes de $\mathbb{R}^2$ están en la imagen de $T.$ Si sólo hay uno, la imagen es un sub-espacio de dimensión $1$ de $\mathbb{R}^2,$ y si hay $2,$ la imagen es $\mathbb{R}^2.$ Es fácil comprobar que $\lbrace T(0,1,0),T(1,-\frac{3}{2},0) \rbrace=\lbrace (1,0),(0,1) \rbrace$ y por tanto estamos en el segundo caso y se tiene $\text{Im}(T)=\mathbb{R}^2.$
La aplicación $T:\mathbb{M}_2 \left( \mathbb{R} \right) \longrightarrow
\mathbb{M}_2 \left( \mathbb{R} \right)$ con: $$T \left( \begin{pmatrix} a
& b \\ c & d \end{pmatrix} \right) = \begin{pmatrix} a+b &
2a \\ 2b & c+d \end{pmatrix}$$es una aplicación lineal. Vamos a
identificar su núcleo y su imagen:
- El núcleo de $T$ es el conjunto de matrices cuya imagen es la matriz nula. Por tanto toda matriz que esté en $\text{Ker}(T)$ ha de cumplir: $$ \begin{cases} a+b=0 \\ 2a=0 \\ 2b=0 \\ c+d=0 \end{cases}$$y de este sistema se obtiene $a=b=0, c=-d,$ de manera que: $$ \text{Ker}(T)= \left\lbrace \begin{pmatrix} 0 & 0 \\ -d & d \end{pmatrix} \in \mathbb{M}_2 \left( \mathbb{R} \right): d \in \mathbb{R} \right\rbrace.$$
- La imagen de $T$ será un sub-espacio vectorial de $\mathbb{M}_2 \left( \mathbb{R} \right),$ de manera que para determinarla nos basta encontrar una base. Además, la matriz $\begin{pmatrix} 0 & 0 \\ -1 & 1 \end{pmatrix}$ genera el núcleo, de manera que si encontramos una base del espacio de matrices en la que esté la matriz $\begin{pmatrix} 0 & 0 \\ -1 & 1 \end{pmatrix},$ la imagen de $T$ estará generada por las imágenes del resto de vectores de la base (esta es una idea que utilizaremos en una demostración posterior). Basta tomar dichos tres vectores como las matrices: $$\begin{align} \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} ,\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}. \end{align}$$Sus imágenes por $T$ son las matrices: $$ \begin{pmatrix} 1 & 2 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 1 & 0 \\ 2 & 0 \end{pmatrix} ,\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix}.$$Como estas tres matrices de $(1)$ junto con la matriz $\begin{pmatrix} 0 & 0 \\ -1 & 1 \end{pmatrix}$ forman una base de $\mathbb{M}_2 \left( \mathbb{R} \right),$ y $T$ es lineal, generan todo el espacio de salida, y como esta última matriz genera el núcleo, las imágenes de las otras tres generan el sub-espacio imagen, luego: $$ \text{Im}(T)= \left\langle \begin{pmatrix} 1 & 2 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 1 & 0 \\ 2 & 0 \end{pmatrix} ,\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} \right\rangle.$$
En los dos ejemplos parece que
$\text{dim}(E)=\text{dim}(\text{Ker}(T))+\text{dim}(\text{Im}(T)).$ El sentido
que esto tiene es que si tomamos un vector y hacemos su imagen, o bien esta es
$0$ o bien está en el sub-espacio imagen, de manera que lo grande que es $E$
será una medida de lo grandes que sean $\text{Im}(T)$ y $\text{Ker}(T).$ Para
demostrarlo, tenemos que ver antes unos pocos lemas sencillos:
$\text{Lema 1.}$ Sea $E$ un $K-$espacio vectorial de dimensión $n \in
\mathbb{N}$ y $F \subset E$ un sub-espacio de $E.$ Entonces $\text{dim}(F)
\leq \text{dim}(E).$
Por ser $F$ un espacio vectorial, tiene una
base
$\mathcal{B}_F$ de vectores de $E.$ Si el
cardinal (el número de elementos) de dicha base fuese mayor que $n$ entonces
no podría ser un sistema libre, de acuerdo con lo que ya
hemos visto, de manera que la dimensión de $F$ tiene que ser menor o igual que la de
$E.$ Si $F$ y $E$ tuvieran la misma dimensión, entonces toda base de $E$ es
base de $F$ y viceversa, de manera que $F=E$ (el argumento pasa por el lema
$2$).
$\text{Lema 2.}$ Sea $E$ un $K-$espacio vectorial de dimensión $n \in
\mathbb{N}.$ Cualquier sistema libre de $n$ vectores es base de $E.$
Sea $S$ un sistema libre de $n$ vectores. Supongamos que no fuera base. Como
es libre y no es base es porque no genera $E,$ es decir, hay un vector de
$E,$ digamos $v,$ que es linealmente independiente de todos los de $S.$ Por
tanto el sistema $S \cup \lbrace v \rbrace$
sigue siendo libre. Sin embargo este tiene $n+1>n$ vectores, y como $E$ es de dimensión
$n$ el sistema no puede ser libre, de manera que hemos llegado a una
contradicción y se tiene que $S$ es base.
$\text{Lema 3.}$ Sea $E$ un $K-$espacio vectorial de dimensión $n \in
\mathbb{N}$ y sea $S=\left\lbrace e_1, \ ... \ , e_m \right\rbrace$ un sistema
libre con $m<n.$ Entonces existen $n-m$ vectores $\left\lbrace u_{m+1}, \
... \ , u_{n} \right\rbrace$ tales que $S \cup \left\lbrace u_{m+1}, \ ... \ ,
u_{n} \right\rbrace$ es una base de $E.$
De acuerdo con lo que hemos demostrado en el lema $2,$ únicamente nos hace
falta ver que existen los $u_i$ y que son todos linealmente independientes.
Supongamos que no existiesen dichos $u_i.$ Entonces tendríamos que para todo
vector $v$ de $E,$ $v$ es linealmente dependiente de los vectores de $S,$
pero entonces $S$ tendría que generar $E,$ y por tanto sería una base de
$E,$ pues es un sistema libre y generaría todo $E.$ En ese caso tendría que
ser $|S|=n,$ pues ya hemos visto que todas las bases de un espacio vectorial
tienen el mismo cardinal. Como $|S|=m <n$ hemos llegado a una
contradicción, y por tanto lo que hemos asumido debe ser erróneo. Sin
embargo esto no termina de demostrarlo: hemos conseguido ver que existe un
$v \in E$ que es linealmente independiente de los vectores de $S.$ Lo que
debemos hacer ahora es nombrar $v=u_{m+1}$ y considerar $S^1=S \cup \lbrace
u_{m+1} \rbrace.$ Si $m+1 <n$ se hace el mismo argumento y así todo el
rato.
En el paso $i$ se tiene: $$S^{i-1} =\left\lbrace e_1, \ ... \ , e_m,
u_{m+1}, \ ... \ , u_{m+i-1} \right\rbrace.$$Si $m+i-1<n$ entonces se
aplica el mismo razonamiento y se llega a: $$ S^{i} =\left\lbrace e_1, \ ...
\ , e_m, u_{m+1}, \ ... \ , u_{m+i-1},u_{m+i} \right\rbrace.$$
En el paso $n-m$ se tiene: $$S^{n-m-1}=\left\lbrace e_1, \ ... \ , e_m,
u_{m+1}, \ ... \ , u_{n-1} \right\rbrace.$$De nuevo se aplica el mismo
razonamiento y se llega a: $$ S^{n-m} =\left\lbrace e_1, \ ... \ , e_m,
u_{m+1}, \ ... \ , u_{n} \right\rbrace.$$Como ya hemos conseguido un sistema
libre de $n$ vectores, éste ha de ser base de $E.$
Ahora vamos con el teorema:
$\text{Teorema}$ (Imagen - Núcleo). Sean $E,V$ dos $K-$espacios vectoriales de
dimensiones $n$ y $m$ respectivamente, y sea $T:E \longrightarrow V$ una
aplicación lineal de $E$ en $V.$ Entonces: $$
\text{dim}(E)=\text{dim}(\text{Im}(T))+\text{dim}(\text{Ker}(T)).$$
Sean $E,V$ y $T$ como en el enunciado. Sabemos que $\text{Ker}(T) \subset E$
es un sub-espacio vectorial de $E,$ y por tanto tiene una base:
$$\mathcal{B}_{\text{Ker}(T)} = \left\lbrace e_1, \ ... \ , e_l
\right\rbrace$$de vectores de $E$ linealmente independientes y que generan
$\text{Ker}(T).$ Por ser sub-espacio de $E,$ se tiene que $l \leq n.$
Caso $l=n:$
Si $l=n$ entonces $E=\text{Ker}(T)$ y por tanto $T(u)=0_V$ para todo $u \in
E,$ luego $\text{Im}(T)=\lbrace 0_V \rbrace$ cuya dimensión es $0,$ y el
teorema es evidente.
Caso $l<n:$
Si $l<n$ entonces, utilizando el lema $3,$ podemos rellenar:
$$\mathcal{B}_{\text{Ker}(T)} = \left\lbrace e_1, \ ... \ , e_l
\right\rbrace$$a: $$\mathcal{B}_E=\left\lbrace e_1, \ ... \ , e_l, u_{l+1},
\ ... \ , u_n \right\rbrace$$que es una base de $E.$ Ahora veamos cómo es la
imagen de $T.$ Si $v \in \text{Im}(T)$ entonces $v=T(u)$ donde $u \in E.$
Así, podemos escribir: $$\begin{align*} v &=T\left( \lambda_1 e_1 + \
... \ + \lambda_l e_l + \lambda_{l+1} u_{l+1} + \ ... \ + \lambda_{n} u_n
\right) = \\ &= \lambda_1 T(e_1) + \ ... \ + \lambda_l T(e_l) +
\lambda_{l+1} T(u_{l+1}) + \ ... \ + \lambda_{n} T(u_n) = \\ &=
\lambda_{l+1} T(u_{l+1}) + \ ... \ + \lambda_{n} T(u_n) \end{align*}$$de
manera que $v$ puede expresarse como combinación lineal de los vectores
$T(u_{l+1}), \ ... \ , T(u_n).$ Nos gustaría ver que estos son base de la
imagen, para lo cual únicamente hace falta ver que son linealmente
independientes (pues ya la generan). Para verlo planteamos la ecuación:
$$\begin{align*} 0_V &= \lambda_{l+1} T(u_{l+1}) + \ ... \ + \lambda_{n}
T(u_n) \\ \\ 0_V &= T\left(\lambda_{l+1} u_{l+1} + \ ... \ +
\lambda_{n} u_n \right) \end{align*}$$de manera que tiene que tenerse:
$\lambda_{l+1} u_{l+1} + \ ... \ + \lambda_{n} u_n \in \text{Ker}(T),$ pero
los vectores $u_i$ son todos linealmente independientes de los vectores
$e_j,$ que son los que generan el núcleo, de manera que esto ocurre
únicamente si $\lambda_i=0$ para $i=l+1, ... , n,$ lo cual justamente prueba
la independencia lineal de $T(u_{l+1}), \ ... \ , T(u_n).$ Por tanto la
dimensión de la imagen de $T$ es $n-l.$ Como la dimensión del núcleo de $T$
es $l$ y la de $E$ es $n$ se tiene:
$$\text{dim}(E)=\text{dim}(\text{Im}(T))+\text{dim}(\text{Ker}(T)).$$
INYECTIVIDAD, SOBREYECTIVIDAD Y BIYECTIVIDAD
Ahora que hemos demostrado estos resultados vamos a ver cómo se relacionan las
cualidades de ser aplicación lineal
inyectiva, sobreyectiva o biyectiva
con los sub-espacios núcleo e imagen.
Inyectividad
Para que una aplicación sea inyectiva se tiene que cumplir que si dos
elementos en la imagen son iguales, sus preimágenes han de ser iguales (o,
equivalentemente, si dos elementos son distintos, sus imágenes han de ser
también distintas). Esta condición podemos formularla en términos de espacios
vectoriales. Supongamos que $E,V$ son $K-$espacios vectoriales de dimensiones
$n,m \in \mathbb{N}$ respectivamente y $T:E \longrightarrow V$ es una
aplicación lineal de $E$ en $V.$ Vamos a ver a qué equivale la condición de
que $T$ sea inyectiva. Sean $u,v \in E:$ $$\begin{align*} T(u) &=T(v) \\
T(u)-T(v) &= 0_V \\ T(u)+T(-v) &= 0_V \\ T(u-v) &= 0_V
\end{align*}$$es decir, $u-v \in \text{Ker}(T).$ Para que $T$ sea inyectiva
tiene que darse $u=v \Longleftrightarrow u-v=0_E.$ Es muy sencillo ver que
$0_E \in \text{Ker}(T),$ pues $T(0_E)=T(0_E+0_E)=T(0_E)+T(0_E)$ luego
$T(0_E)=0_V.$ Por tanto, para que $T$ sea inyectiva necesitamos que $u-v=0_E,$
que se cumple si $\text{Ker}(T)=\lbrace 0_E \rbrace.$ Si por otro lado tenemos
que $T$ es inyectiva, entonces se cumple que $\text{Ker}(T)=\lbrace 0_E
\rbrace.$ Vamos a enunciarlo formalmente:
$\text{Prop.}$ Sean $E,V$ dos $K-$espacios vectoriales y $T:E \longrightarrow
V$ una aplicación lineal de $E$ en $V.$ Entonces $T$ es inyectiva si y sólo si
$\text{Ker}(T)=\lbrace 0_E \rbrace.$
Tenemos que demostrar las dos implicaciones:
$\Longrightarrow )$ Supongamos que $T$ es inyectiva. Entonces si $u \in
\text{Ker}(T)$ tiene $T(u)=0_V=T(0_E)$ y por ser $T$ inyectiva, $u=0_E,$ de
manera que $\text{Ker}(T)=\lbrace 0_E \rbrace.$
$\Longleftarrow )$ Supongamos que $\text{Ker}(T)=\lbrace 0_E \rbrace.$
Entonces $T(u)=T(v)$ si y sólo si $u-v \in \text{Ker}(T),$ y por tanto
$u-v=0_E,$ de donde se llega a $u=v$ y por tanto $T$ es inyectiva.
Por convenio, la dimensión del conjunto vacío visto como espacio vectorial es
$0,$ y es la misma que la dimensión del espacio trivial: $\lbrace 0_E
\rbrace,$ de manera que si $T:E \longrightarrow V$ es inyectiva, según el
teorema anterior se tiene $\text{dim}(E)=\text{dim}(\text{Im}(T))$ y
$\text{dim}(\text{Ker}(T))=0,$ y como $\text{dim}(\text{Im}(T)) \leq
\text{dim}(V),$ llegamos a que si $T$ es inyectiva: $$\text{dim}(E) \leq
\text{dim}(V).$$
Sobreyectividad
Para que $T:E \longrightarrow V$ sea sobreyectiva se tiene que tener:
$\text{Im}(T)=V$ como conjuntos, y como ambos son espacios vectoriales, tiene
que ser el mismo. Por tanto, cualquier base de $V$ tiene que ser base de
$\text{Im}(T)$ y al revés. Además, según el teorema anterior, en este caso se
tiene: $\text{dim}(E)=\text{dim}(\text{Ker}(T))+\text{dim}(V).$ Como
$\text{dim}(\text{Ker}(T)) \geq 0$ tenemos: $$ \text{dim}(E) \geq
\text{dim}(V).$$
Biyectividad
Por último, $T:E \longrightarrow V$ es biyectiva si a la vez es inyectiva y
sobreyectiva, de manera que se tiene: $$\text{dim}(E)=\text{dim}(V).$$Además,
por ser $T$ inyectiva, la imagen de un sistema libre es otro sistema libre, y
por ser sobreyectiva, la imagen de una base es otra base. Veámoslo:
$\text{Prop.}$ Sean $E,V$ dos $K-$espacios vectoriales de dimensión $n \in
\mathbb{N}$ y $T:E \longrightarrow V$ una biyección lineal. Si $\mathcal{B}$
es base de $E,$ entonces $T(\mathcal{B})$ es base de $V.$
Denotamos $\mathcal{B}=\left\lbrace e_1, \ ... \ , e_n \right\rbrace.$
$T(\mathcal{B})$ es base si los vectores $T(e_1), \ ... \ , T(e_n)$ son
linealmente independientes. Planteamos la ecuación: $$\begin{align*}
\lambda_1 T(e_1) + \ ... \ + \lambda_n T(e_n) &=0_V \\ T(\lambda_1 e_1)
+ \ ... \ + T(\lambda_n e_n) &=0_V \\ T(\lambda_1 e_1 + \ ... \ +
\lambda_n e_n) &=0_V \end{align*}$$y esto ocurre si y sólo si $\lambda_1
e_1 + \ ... \ + \lambda_n e_n \in \text{Ker}(T),$ pero como $T$ es inyectiva
por ser también biyectiva: $\text{Ker}(T)=\lbrace 0_E \rbrace$ y se tiene
que tener: $$\lambda_1 e_1 + \ ... \ + \lambda_n e_n = 0_E.$$Como
$\mathcal{B}$ es base, la solución a esta ecuación es única y es $\lambda_1
= \ ... \ = \lambda_n=0_K,$ de manera que $$T(\mathcal{B})=\left\lbrace
T(e_1), \ ... \ , T(e_n) \right\rbrace$$es base de $V,$ pues es un sistema
linealmente independiente con $n$ vectores y $\text{dim}(V)=n.$
Llegamos a la conclusión que la dimensión de los espacios establece ciertas
condiciones necesarias para la inyectividad y sobreyectividad de las
aplicaciones lineales: si $T:E \longrightarrow V$ es lineal y $\text{dim}(E)
> \text{dim}(V),$ $T$ no puede ser inyectiva, y si $\text{dim}(E) <
\text{dim}(V),$ $T$ no puede ser sobreyectiva. Por último, si $\text{dim}(E)
\neq \text{dim}(V),$ $T$ no puede ser biyectiva.
Comentarios
Publicar un comentario