Aplicaciones Lineales y Matrices

Para entender sobre qué va este post vas a necesitar saber lo que son los espacios vectoriales, sus bases, las aplicaciones lineales, el cambio de base y las matrices con entradas sobre un cuerpo. Lo que vamos a ver hoy es cómo toda aplicación lineal entre espacios vectoriales tiene asociada una matriz según las bases de dichos espacios, de manera que vamos a poder tratar a las aplicaciones lineales y a las matrices de manera muy parecida.

APLICACIONES LINEALES Y MATRICES

Vamos a suponer que $E$ y $V$ son dos $K-$espacios vectoriales, de dimensiones $n$ y $m$ respectivamente, y $T:E \longrightarrow V$ es una aplicación lineal entre ambos espacios. Podemos establecer que $\mathcal{B}_E$ y $\mathcal{B}_V$ sean bases de $E$ y $V$ respectivamente, formadas por los vectores: $$\begin{align*} \mathcal{B}_E &= \left\lbrace e_1, \ ... \ , e_n \right\rbrace \\ \mathcal{B}_V &= \left\lbrace v_1, \ ... \ , v_m \right\rbrace . \end{align*}$$La imagen de un vector cualquiera de la base $\mathcal{B}_E$ es un vector de $V$ y por tanto puede ser expresado como combinación lineal de los vectores de $\mathcal{B}_V.$ Se tiene: $$\begin{align*} T(e_1) &=\lambda_{11}v_1 + \ ... \ + \lambda_{m1}v_m \\ &.. \\ &.. \\ T(e_n) &=\lambda_{1n}v_1 + \ ... \ + \lambda_{mn}v_m \end{align*}$$y si $e \in E$ es un vector cualquiera de $E:$ $$e=\mu_1 e_1 + \ ... \ + \mu_n e_n $$entonces $$ T(e)=\mu_1 T(e_1) + \ ... \ + \mu_n T(e_n)$$y podemos sustituir las expresiones de $T(e_i)$ en función de los $v_j$ que hemos hallado antes: $$\begin{align*} T(e) &= \mu_1 (\lambda_{11}v_1 + \ ... \ + \lambda_{m1}v_m) + \ ... \ + \mu_n (\lambda_{1n}v_1 + \ ... \ + \lambda_{mn}v_m) = \\ &= (\mu_1 \lambda_{11} + \ ... \ + \mu_n \lambda_{1n}) v_1+ \ ... \ + (\mu_1 \lambda_{m1} + \ ... \ + \mu_n \lambda_{mn})v_m = \\ &= \left(\sum_{i=1}^{n} \mu_i \lambda_{1i}\right) v_1+ \ ... \ + \left(\sum_{i=1}^{n} \mu_i \lambda_{mi}\right) v_m . \end{align*}$$Ahora pensémoslo en coordenadas: a la aplicación $T:E \longrightarrow V$ hay asociada otra aplicación $T_{\mathcal{B}_E,\mathcal{B}_V}:K^n \longrightarrow K^m$ que tiene $T_{\mathcal{B}_E,\mathcal{B}_V} \left( [e]_{\mathcal{B}_E} \right)=\left[ T(e) \right]_{\mathcal{B}_V},$ es decir, lleva las coordenadas de $e$ en la base $\mathcal{B}_E$ de $E$ a las coordenadas de $T(e)$ en la base $\mathcal{B}_V$ de $V.$ Escribiendo esto en notación matricial se tiene: $$ T_{\mathcal{B}_E,\mathcal{B}_V} \left( \begin{pmatrix} \mu_1 \\ .. \\ .. \\ \mu_n \end{pmatrix} \right) = \begin{pmatrix} \sum_{i=1}^{n} \mu_i \lambda_{1i} \\ .. \\ .. \\ \sum_{i=1}^{n} \mu_i \lambda_{mi} \end{pmatrix} = \begin{pmatrix} \lambda_{11} & ... & \lambda_{1n} \\ ... & ... & ... \\ \lambda_{m1} & ... & \lambda_{mn} \end{pmatrix} \begin{pmatrix} \mu_1 \\ .. \\ .. \\ \mu_n \end{pmatrix}$$de manera que toda aplicación lineal entre dos espacios vectoriales con bases determinadas (como los que hemos planteado al principio del desarrollo) tiene asociada una aplicación (lineal) entre $K^n$ y $K^m$ que se representa mediante una matriz (dicha aplicación lleva un vector de $K^n$ a otro de $K^m$ multiplicándolo por la izquierda por una matriz). En definitiva: dadas bases de $E$ y $V,$ toda aplicación lineal tiene una matriz asociada a esas bases. Por esta razón podemos trabajar con aplicaciones lineales en coordenadas, lo cual es otra ventaja a favor de trabajar en espacios vectoriales mediante coordenadas. Acabamos de demostrar el siguiente teorema:
$\text{Teorema.}$ Sean $E,V$ dos $K-$espacios vectoriales de dimensiones $n$ y $m$ respectivamente con bases: $$\begin{align*} \mathcal{B}_E &= \left\lbrace e_1, \ ... \ , e_n \right\rbrace \\ \mathcal{B}_V &= \left\lbrace v_1, \ ... \ , v_m \right\rbrace \end{align*}$$y sea $T:E \longrightarrow V$ una aplicación lineal para la que se tiene: $$\begin{align*} T(e_1) &=\lambda_{11}v_1 + \ ... \ + \lambda_{m1}v_m \\ &.. \\ &.. \\ T(e_n) &=\lambda_{1n}v_1 + \ ... \ + \lambda_{mn}v_m . \end{align*}$$Entonces: $$\left[ T(e) \right]_{\mathcal{B}_V} = M_{\mathcal{B}_E,\mathcal{B}_V}(T)  \cdot [e]_{\mathcal{B}_E}$$para todo $e \in E$ y $M_{\mathcal{B}_E,\mathcal{B}_V}(T)$ es la matriz: $$M_{\mathcal{B}_E,\mathcal{B}_V}(T) = \begin{pmatrix} \lambda_{11} & ... & \lambda_{1n} \\ ... & ... & ... \\ \lambda_{m1} & ... & \lambda_{mn} \end{pmatrix}$$
Merece la pena comentar que no hemos determinado cómo es la asignación de cada aplicación lineal a su correspondiente matriz. Todavía no hemos dicho cómo identificar si dos aplicaciones lineales son iguales. La idea es que dos aplicaciones lineales son iguales (como aplicaciones) si las imágenes de cada elemento son las mismas: $T(e)=L(e)$ para todo $e \in E.$
$\text{Def.}$ Sean $E,V$ dos $K-$espacios vectoriales y $T,L:E \longrightarrow V$ dos aplicaciones lineales. Decimos que $T=L$ si $T(e)=L(e)$ para todo $e \in E.$
Con este criterio se tiene que dos aplicaciones lineales son iguales si en las mismas bases de $E$ y $V$ sus matrices son la misma. Para terminar esta sección vamos a ver algunos ejemplos de cómo trabajar con una aplicación lineal mediante su matriz asociada.

Consideramos los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$ y la aplicación $T: \mathbb{R}^2 \longrightarrow \mathbb{R}^3$ dada por $T(x,y)=(2x,x+y,2y-x).$ En las bases canónicas de $\mathbb{R}^2: \ \mathcal{B_{C,2}}$ y $\mathbb{R}^3: \ \mathcal{B_{C,3}}$ la aplicación lleva: $$\begin{align*} T(1,0)_{\mathcal{B_{C,2}},\mathcal{B_{C,3}}} &= (2,1,-1) \\ T(1,0)_{\mathcal{B_{C,2}},\mathcal{B_{C,3}}} &= (0,1,2) \end{align*}$$de manera que la matriz de $T$ en las bases canónicas es: $$\begin{pmatrix} 2 & 0 \\ 1 & 1 \\ -1 & 2 \end{pmatrix}$$ y la imagen del vector $(x, y)$ por $T$ en las coordenadas de las base canónica de $\mathbb{R}^3$ son: $$ \begin{pmatrix} 2 & 0 \\ 1 & 1 \\ -1 & 2 \end{pmatrix} \cdot \begin{pmatrix} x \\ y \end{pmatrix}= \begin{pmatrix} 2x \\ x+y \\ 2y-x \end{pmatrix}$$


La aplicación $T:\mathbb{M}_2 \left( \mathbb{R} \right) \longrightarrow \mathbb{M}_2 \left( \mathbb{R} \right)$ con: $$T \left( \begin{pmatrix} a & b \\ c & d \end{pmatrix} \right)  = \begin{pmatrix} a+b & 2a \\ 2b & c+d \end{pmatrix}$$es una aplicación lineal. Vamos a considerar la base: $$\begin{align*} \mathcal{B}_1 &= \left\lbrace \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix},\begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} \right\rbrace . \end{align*}$$Planteamos los siguientes ejercicios:
  1. Hallar la matriz de $T$ en la base $\mathcal{B}_1,$ e.d. $M_{\mathcal{B}_1,\mathcal{B}_1}(T).$
  2. Si existe, hallar la base $\mathcal{B}_2$ de $\mathbb{M}_2 \left( \mathbb{R} \right)$ para la cual la matriz $M_{\mathcal{B}_1,\mathcal{B}_2}(T)$ es igual a la matriz identidad $I_{4}.$ Si no existe, razonar por qué.
Las soluciones:
  1. Para hallar $M_{\mathcal{B}_1,\mathcal{B}_1}(T)$ basta hallar las imágenes por $T$ de los elementos de la base $\mathcal{B}_1$ y expresarlos como combinación lineal de estos mismos: $$\begin{align*} T \left( \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} \right) &= \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix} = \\ &= \lambda_{11} \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} + \lambda_{21} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} + \lambda_{31} \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} + \lambda_{41} \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} \\ T \left( \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \right) &= \begin{pmatrix} 1 & 0 \\ 2 & 1 \end{pmatrix} = \\ &= \lambda_{12} \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} + \lambda_{22} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} + \lambda_{32} \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} + \lambda_{42} \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} \\ T \left( \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} \right) &= \begin{pmatrix} 0 & 0 \\ 0 & 2 \end{pmatrix} = \\ &= \lambda_{13} \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} + \lambda_{23} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} + \lambda_{33} \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} + \lambda_{43} \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} \\ T \left( \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} \right) &= \begin{pmatrix} 2 & 2 \\ 2 & 2 \end{pmatrix} = \\ &= \lambda_{14} \begin{pmatrix} 1 & 0 \\ 1 & 0 \end{pmatrix} + \lambda_{24} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} + \lambda_{34} \begin{pmatrix} 0 & 0 \\ 1 & 1 \end{pmatrix} + \lambda_{44} \begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix} \end{align*}$$La matriz que resulta es: $$M_{\mathcal{B}_1,\mathcal{B}_1}(T)= \begin{pmatrix} 0 & 1 & -\frac{1}{2} & 1 \\ 1 & 0 & -\frac{1}{2} & 1 \\ -1 & 1 & 1 & 0 \\ 1 & 0 & \frac{1}{2} & 1 \end{pmatrix}$$
  2. En este caso si la matriz fuese la identidad entonces las imágenes de los vectores de la base $\mathcal{B}_1$ tendrían coordenadas $(1,0,0,0), (0,1,0,0), (0,0,1,0), (0,0,0,1)$ en la base $\mathcal{B}_2$ y por tanto serían los vectores de esa base. Es decir, si $\mathcal{B}_1 = \lbrace e_1, e_2, e_3, e_4 \rbrace$ y $\mathcal{B}_2 = \lbrace u_1, u_2, u_3, u_4 \rbrace$ se tendría $T(e_i)=u_i$ para $i=1,2,3,4.$ Calculamos $u_i$ y vemos que si son linealmente independientes o no: $$ a \begin{pmatrix} 1 & 2 \\ 0 & 1 \end{pmatrix} + b \begin{pmatrix} 1 & 0 \\ 2 & 1 \end{pmatrix} + c \begin{pmatrix} 0 & 0 \\ 0 & 2 \end{pmatrix} + d \begin{pmatrix} 2 & 2 \\ 2 & 2 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0 \end{pmatrix}.$$Como la solución de este sistema no es única, estos no son linealmente independientes. Por tanto no existe tal base $\mathcal{B}_2$ (si existiera, los $u_i$ tendrían que ser  linealmente independientes pero no lo son).



NÚCLEO E IMAGEN MEDIANTE MATRICES

Según lo que hemos visto, las columnas de la matriz $M_{\mathcal{B}_E,\mathcal{B}_V}(T)$ asociada a $T:E \longrightarrow V$ son las coordenadas en la base $\mathcal{B}_V$ de las imágenes de los vectores de la base $\mathcal{B}_E,$ y por tanto son las coordenadas de los generadores de $\text{Im}(T).$ Esto quiere decir que podemos calcular el sub-espacio $\text{Im}(T)$ a partir de la matriz de la aplicación (en coordenadas en la base $\mathcal{B}_V).$ Por otro lado, como el vector $0_V$ se expresa en coordenadas $(0_K,0_K, \ ... \ , 0_K)$ independientemente de la base, podemos hallar el núcleo de $T$ en coordenadas en la base $\mathcal{B}_E$ si resolvemos el sistema: $$ M_{\mathcal{B}_E,\mathcal{B}_V}(T) \cdot [e]_{\mathcal{B}_E} = \begin{pmatrix} \lambda_{11} & ... & \lambda_{1n} \\ ... & ... & ... \\ \lambda_{m1} & ... & \lambda_{mn} \end{pmatrix} \begin{pmatrix} x_1 \\ .. \\ .. \\ x_n \end{pmatrix} = \begin{pmatrix} 0_K \\ .. \\ .. \\ 0_K \end{pmatrix}$$para hallar los posibles valores de $x_1, \ ... \ , x_n$ y por tanto así obtenemos los generadores de $\text{Ker}(T)$ en la base $\mathcal{B}_E.$

Para la matriz del ejemplo 1: $$\begin{align*} \text{Ker}(T) &= \left\lbrace \begin{pmatrix} x \\ y \end{pmatrix} \in \mathbb{R}^2: \   \begin{pmatrix} 2 & 0 \\ 1 & 1 \\ -1 & 2 \end{pmatrix} \begin{pmatrix} x \\ y \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} \right\rbrace = \\ &= \left\lbrace \begin{pmatrix} 0 \\ 0 \end{pmatrix} \right\rbrace \\ \\ \text{Im}(T) &= \left\langle \begin{pmatrix} 2 \\ 1 \\ -1 \end{pmatrix}, \begin{pmatrix} 0 \\ 1 \\ 2 \end{pmatrix} \right\rangle \end{align*}$$


Para la matriz del ejemplo 2, si $(x,y,z,t)$ son las coordenadas de una matriz en $\mathcal{B}_1:$ $$\begin{align*} \text{Ker}(T) &= \left\lbrace \begin{pmatrix} x \\ y \\ z \\ t \end{pmatrix} \in \mathbb{R}^4: \    \begin{pmatrix} 0 & 1 & -\frac{1}{2} & 1 \\ 1 & 0 & -\frac{1}{2} & 1 \\ -1 & 1 & 1 & 0 \\ 1 & 0 & \frac{1}{2} & 1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \\ t \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} \right\rbrace  = \\ &= \left\lbrace (x,y,z,t) \in \mathbb{R}^4 : \begin{cases} x=y=t \\ z=0 \end{cases}  \right\rbrace \\ \\ \text{Im}(T) &= \left\langle \begin{pmatrix} 0 \\ 1 \\ -1 \\ 1 \end{pmatrix}, \begin{pmatrix} 1 \\ 0 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} -\frac{1}{2} \\ -\frac{1}{2} \\ 1 \\ \frac{1}{2} \end{pmatrix},\begin{pmatrix} 1 \\ 1 \\ 0 \\ 1 \end{pmatrix} \right\rangle \underset{(*)}{=} \left\langle \begin{pmatrix} 1 \\ 0 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 1 \\ -1 \\ 1 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 1 \\ 4 \end{pmatrix} \right\rangle \end{align*}$$en coordenadas en la base $\mathcal{B}_1.$ En el paso $(*)$ simplemente hemos obtenido una base del espacio generado. En posts siguientes comentaremos cómo podemos hacer esto fácilmente.


APLICACIÓN INDUCIDA POR UNA MATRIZ

Si consideramos $K^n$ con la estructura de espacio vectorial, cada matriz $A \in \mathbb{M}_{m \times n}(K)$ se puede interpretar como una aplicación lineal entre $K^n$ y $K^m$ que lleva cada vector $u \in K^n$ al vector $v = A u \in K^m.$ Esto se puede hacer en general para un par de espacios vectoriales de dimensiones $n$ y $m$ cualesquiera, pero únicamente si previamente hemos determinado las bases en las que estamos trabajando y en las que está la matriz. Sin embargo en $K^n$ esto no es necesario pues podemos tratar los vectores simplemente como elementos de $K^n$ sin relación a ningún par de bases particulares (o si el lector lo prefiere, con relación a las bases canónicas de ambos espacios, que para el caso es idéntico). En este contexto (y de acuerdo a un par de ideas que ya hemos explorado en el apartado anterior) podemos definir lo que es el rango de una matriz:
$\text{Def.}$ Sea $A \in \mathbb{M}_{m \times n} (K)$ una matriz de coeficientes en el cuerpo $K.$ Se define el rango de $A$ como el número de vectores columna de $A$ que son linealmente independientes.
$\text{Obs.}$ El rango de una matriz $A_{m \times n}$ es igual que la dimensión del sub-espacio $\text{Im}(T),$ donde $T$ es la aplicación inducida por $A,$ es decir, $T: K^n \longrightarrow K^m$ con $T(u)=Au.$ Esta es una forma de calcular el rango de una matriz, pero más adelante veremos cómo hacerlo mucho más fácilmente.

La aplicación identidad en $\mathbb{R}^3$ se puede representar mediante la matriz $I_3.$ Por ser biyectiva, el rango de la matriz $I_3$ ha de ser $3.$ Es fácil comprobarlo pues los vectores columna de $I_3$ son: $$ \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} $$que sabemos que son independientes. En general, el rango de $I_n$ es $n.$

Comentarios

Frecuentes

Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

El Teorema del Sándwich

Aplicaciones y Cardinales