Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recapitulemos un poco antes de comenzar: hemos visto que todo espacio vectorial tiene una base, e.d. un conjunto de vectores linealmente independientes que lo generan. También hemos visto que podemos representar cada vector del espacio mediante sus coordenadas respecto de una base, y que estas pueden ser distintas en función de la base que tomemos. Habíamos dejado planteadas algunas cuestiones sin resolver, como cómo operar con coordenadas y cómo hacer el cambio de coordenadas en función de qué base tomemos. En el post de hoy vamos a resolver estas cuestiones, para lo cual hablaremos de las aplicaciones lineales y de la matriz de cambio de base.

APLICACIONES LINEALES

En matemáticas, una vez definida una estructura, lo normal es preguntarse cómo pueden ser las aplicaciones entre ese tipo de estructura. El ejemplo que conocemos por ahora es el de aplicaciones entre conjuntos. Las aplicaciones entre dos conjuntos que respetan la estructura de conjunto son las funciones, y pueden ser inyectivas, sobreyectivas o biyectivas. Además una función biyectiva entre dos conjuntos mantiene la misma estructura entre ambos conjuntos: es decir, si $A$ es un conjunto y $B$ es otro, y existe una función $f$ de $A$ en $B$ biyectiva, el conjunto $B$ es "igual" que el conjunto $A,$ mantiene las mismas propiedades (cardinal, por ejemplo). Con los espacios vectoriales va a ocurrir algo parecido: si una aplicación que parte de un espacio vectorial y aterriza en otro (sobre el mismo cuerpo) respeta la estructura de espacio vectorial entonces diremos que es una aplicación lineal, y si encima es biyectiva, la estructura del primer espacio vectorial será "la misma" que la del segundo. Estos son ejemplos de lo que llamamos homomorfismos: aplicaciones que respetan la estructura. Si encima son biyectivos, se trata de isomorfismos, y cuando dos estructuras son isomorfas, son "iguales". Las biyecciones son isomorfismos de conjuntos, y las biyecciones lineales serán los isomorfismos de espacios vectoriales (isomorfismos lineales). De manera parecida tendremos homomorfismos e isomorfismos de grupos, anillos y demás estructuras.
$\text{Def.}$ Dados $V$ y $W$ $K-$espacios vectoriales y $T: V \longrightarrow W$ una aplicación de $V$ en $W,$ decimos que $T$ es lineal si:
  1. $T(u+v)=T(u)+T(v)$ para todo $u,v \in V.$
  2. $T(\lambda u) = \lambda T(u)$ para todo $\lambda \in K, \ u \in V.$
Dicho esto, lo primero que vamos a hacer es darle un sentido a las operaciones en coordenadas de las que hablábamos en el post anterior. Para ello vamos a ver que $K^n$ podemos interpretarlo como un $K-$espacio vectorial y que dada $B$ una base de $E,$ la aplicación $[·]_B:E \longrightarrow K^n$ que toma un vector y devuelve sus coordenadas en la base $B$ es una aplicación lineal.
$\text{Prop.}$ Sea $K$ un cuerpo con las operaciones "suma" $(+)$ y "producto" $(\cdot)$. El conjunto: $$K^n=\left\lbrace (\lambda_1 , \ ... \ , \lambda_n): \ \lambda_1, \ ... \ , \lambda_n \in K \right\rbrace$$es un $K-$espacio vectorial de dimensión $n.$

Para demostrarlo hace falta dar la forma del producto de un escalar por un vector y comprobar simplemente las condiciones de la definición de espacio vectorial. Consideraremos $\varphi: K \times K^{n} \longrightarrow K^n$ como la aplicación producto de escalar por vector y que lleva: $$\varphi \left( \lambda, (\lambda_1, \ ... \ , \lambda_n) \right )=(\lambda \lambda_1, \ ... \ , \lambda \lambda_n)$$y la denotaremos simplemente: $$\lambda (\lambda_1, \ ... \ , \lambda_n) = (\lambda \lambda_1, \ ... \ , \lambda \lambda_n).$$La operación suma en $K^n$ es la heredada de la suma en $K:$ $$(\lambda_1, \ ... \ , \lambda_n)+(\mu_1 , \ ... \ , \mu_n)=(\lambda_1 + \mu_1 , \ ... \ , \lambda_n + \mu_n).$$Ahora comprobemos las condiciones:
  1. $K^n$ es un grupo abeliano pues la suma de elementos de $K^n$ hereda las propiedades de la suma en $K,$ y como $K$ es un cuerpo, en particular es un grupo abeliano con respecto de la suma. Si es necesario se pueden detallar las comprobaciones.

  2. El elemento $1_K$ es neutro para $\varphi:$ $$1_K (\lambda_1 , \ ... \ , \lambda_n) = (1_K \lambda_1 , \ ... \ , 1_K \lambda_n)= (\lambda_1 , \ ... \ , \lambda_n)$$por serlo para $\cdot$ en $K.$

  3. Si $\lambda , \mu \in K$ y $(\lambda_1, \ ... \ , \lambda_n) \in K^n:$ $$\begin{align*} \lambda \left( \mu (\lambda_1, \ ... \ , \lambda_n) \right) &= \lambda (\mu \lambda_1, \ ... \ , \mu \lambda_n) = (\lambda \mu \lambda_1, \ ... \ , \lambda \mu \lambda_n) \\ &= \left( \lambda \mu \right) (\lambda_1 , \ ... \ , \lambda_n) \end{align*}$$
  4. Si $\lambda \in K$ y $(\lambda_1 , \ ... \ , \lambda_n),(\mu_1 , \ ... \ , \mu_n) \in K^n:$ $$\begin{align*} \lambda \left( (\lambda_1 , \ ... \ , \lambda_n)+(\mu_1 , \ ... \ , \mu_n) \right)  &= \lambda (\lambda_1 + \mu_1 , \ ... \ , \lambda_n + \mu_n) = \\ &= (\lambda \lambda_1 + \lambda \mu_1 , \ ... \ , \lambda \lambda_n + \lambda \mu_n) = \\ &= \lambda (\lambda_1 , \ ... \ , \lambda_n) + \lambda (\mu_1 , \ ... \ , \mu_n). \end{align*}$$
  5. Si $\lambda_, \mu \in K$ y $(\lambda_1 , \ ... \ , \lambda_n) \in K^n:$ $$\begin{align*} (\lambda + \mu) (\lambda_1 , \ ... \ , \lambda_n) &= ((\lambda + \mu) \lambda_1 , \ ... \ , (\lambda + \mu) \lambda_n)= \\ &= (\lambda \lambda_1 + \mu \lambda_1 , \ ... \ , \lambda \lambda_n + \mu \lambda_n) = \\ &= \lambda (\lambda_1 , \ ... \ , \lambda_n) + \mu (\lambda_1 , \ ... \ , \lambda_n).  \end{align*}$$
Ahora para ver que la dimensión es $n$ basta encontrar una base. Podemos considerar la base que más simple es: $$ \mathcal{B} = \left\lbrace e_1, e_2, \ ... \ , e_n \right\rbrace $$donde $e_i=(0,0,\ ... \ ,0,1_K, 0, \ ... \ ,0)$ tiene como $i-$ésima entrada el neutro para el producto en $K$ y el resto de entradas son $0$ (el neutro para la suma en $K$). Tenemos que ver dos cosas: que el conjunto es un sistema libre y que genera $K^n.$ Utilizaremos notación matricial por comodidad:
  1. Veamos que es un sistema libre: $$ \begin{pmatrix} 0 \\ 0 \\ .. \\ 0 \end{pmatrix} =  \lambda_1 \begin{pmatrix} 1_K \\ 0 \\ .. \\ 0 \end{pmatrix} + \lambda_2 \begin{pmatrix} 0 \\ 1_K \\ .. \\ 0 \end{pmatrix} + \ ... \ + \lambda_n \begin{pmatrix} 0 \\ 0 \\ .. \\ 1_K \end{pmatrix} = \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ .. \\ \lambda_n \end{pmatrix}$$de manera que $\lambda_i = 0$ para todo $i=1,2,...,n,$ luego los $e_i$ son linealmente independientes y el sistema es libre.

  2. Veamos que $\langle \mathcal{B} \rangle = K^n:$ $$\begin{align*} \langle \mathcal{B} \rangle &= \left\lbrace \lambda_1 \begin{pmatrix} 1_K \\ 0 \\ .. \\ 0 \end{pmatrix} + \lambda_2 \begin{pmatrix} 0 \\ 1_K \\ .. \\ 0 \end{pmatrix} + \ ... \ + \lambda_n \begin{pmatrix} 0 \\ 0 \\ .. \\ 1_K \end{pmatrix} : \lambda_i \in K \right\rbrace = \\ &= \left\lbrace \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ .. \\ \lambda_n \end{pmatrix}: \lambda_i \in K \right\rbrace =K^n \end{align*}$$

A menudo denotaremos a la base $\mathcal{B}$ (que hemos utilizado para demostrar que la dimensión de $K^n$ como espacio vectorial) como base canónica: $\mathcal{B_C}$.
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial de dimensión $n$ y sea $\mathcal{B}$ una base de $E.$ La aplicación $[·]_{\mathcal{B}}:E \longrightarrow K^n$ que lleva un vector en sus coordenadas con respecto de $\mathcal{B}$ es un isomorfismo lineal.

Pongamos $\mathcal{B}=\left\lbrace e_1, \ ... \ , e_n \right\rbrace.$ Tenemos que demostrar que $[·]_{\mathcal{B}}$ es lineal y biyectiva:
  1. Biyectiva
    Para ver que es biyectiva basta ver que es inyectiva y sobreyectiva. La inyectividad nos la da la unicidad de la expresión en coordenadas, resultado que probamos en el post anterior. Por otro lado, si $(\lambda_1, \ ... \ , \lambda_n) \in K^n$ entonces siempre podemos encontrar $v=\lambda_1 e_1 + \ ... \ + \lambda_n e_n$ tal que $[v]_{\mathcal{B}}=(\lambda_1, \ ... \ , \lambda_n),$ luego es sobreyectiva.

  2. Lineal
    La linealidad nos la da la proposición sobre operaciones en coordenadas que demostramos en el post anterior.

Lo que esto nos confirma es que las coordenadas son verdaderamente una buena herramienta para trabajar con espacios vectoriales puesto que todo espacio vectorial de dimensión $n$ sobre el cuerpo $K$ es isomorfo a $K^n,$ es decir, son "el mismo" espacio vectorial, y las operaciones con coordenadas verdaderamente tienen sentido tal y como las hemos definido. Además, si la composición de isomorfismos lineales fuera un isomorfismo lineal y la inversa de un isomorfismo lineal (que existe pues todo isomorfismo lineal es biyectivo) también fuera un isomorfismo lineal, entonces todo espacio vectorial de dimensión $n$ sobre $K$ sería isomorfo a cualquier otro espacio vectorial de la misma dimensión sobre $K$, pues bastaría componer el paso a coordenadas de un espacio a $K^n$ con la inversa del paso a coordenadas del otro espacio a $K^n$. Para investigar esto necesitamos trabajar un poco más con las aplicaciones lineales y en particular con los isomorfismos lineales.

ISOMORFISMOS LINEALES

Vamos a ver cómo lo que marcábamos antes es cierto, para lo cual vamos a querer ver si los isomorfismos lineales cumplen todas las propiedades que nos gustaría que cumpliesen (en relación a su inversa y a la composición). En particular vamos a comprobar que la composición de aplicaciones lineales sigue siendo una aplicación lineal y que todo isomorfismo lineal tiene una inversa también lineal.
$\text{Prop.}$ Sean $E,V,W$ tres $K-$espacios vectoriales y $T:E \longrightarrow V$ y $L:V \longrightarrow W$ dos aplicaciones lineales. Entonces la composición: $L \circ T: E \longrightarrow W$ es otra aplicación lineal.

Para demostrarlo basta comprobar las condiciones dadas en la definición:
  1. Dados $u,v \in E$ se tiene: $$\begin{align*} L \circ T (u+v) &= L \left( T(u+v) \right) = L \left( T(u)+T(v) \right) = \\ &=L \left( T(u) \right) + L \left( T(v) \right) = L \circ T (u) + L \circ T (v). \end{align*}$$
  2. Dados $\lambda \in K, \ u \in E$ se tiene: $$\begin{align*}L \circ T (\lambda u) &= L \left( T( \lambda u ) \right) = L \left( \lambda T(u) \right) = \\ &= \lambda L \left( T(u) \right) = \lambda \left( L \circ T (u) \right). \end{align*}$$

$\text{Prop.}$ Sean $E,V$ $K-$espacios vectoriales de dimensión $n \in \mathbb{N}$ y $T:E \longrightarrow V$ un isomorfismo lineal. Entonces existe $T^{-1}: V \longrightarrow E$ y es otro isomorfismo lineal.

Por ser $T$ un isomorfismo lineal es biyectiva y por tanto sabemos que la inversa de $T$ existe. La denotaremos $L.$ Falta demostrar que $L$ es lineal, para lo cual basta comprobar las dos condiciones que dimos en la definición:
  1. Sean $u_2, v_2 \in V.$ Por ser $T$ biyectiva es sobreyectiva y por tanto existen $u_1,v_1 \in E$ tales que $u_2=T(u_1)$ y $v_2=T(v_1).$ Entonces: $$\begin{align*} L(u_2 + v_2) &= L( T(u_1) + T(v_1))= L(T(u_1 + v_1))= \\ &= u_1 + v_1 = L(u_2) + L(v_2). \end{align*}$$
  2. Sean $\lambda \in K$ y $u_2 \in V.$ De nuevo podemos afirmar que existe $u_1 \in E$ para el cual $u_2=T(u_1).$ Calculamos $L( \lambda u_2):$ $$\begin{align*} L(\lambda u_2) &= L( \lambda T(u_1)) = L(T(\lambda u_1)) = \\ &= \lambda u_1 = \lambda L(u_2) . \end{align*}$$
Con esto queda demostrado que $L,$ que es $T^{-1},$ es lineal, luego también es un isomorfismo lineal.

Además, ya sabemos que la composición de funciones biyectivas es otra función biyectiva, de manera que junto con lo que hemos observado antes, podemos deducir que ser espacios vectoriales isomorfos es una relación de equivalencia y podemos demostrar la observación que hemos hecho antes:
$\text{Teorema.}$ Todos los $K-$espacios vectoriales de dimensión $n \in \mathbb{N}$ son isomorfos (entre ellos). En particular lo son a $K^n.$

Para verlo, tomemos $E$ y $V$ dos $K-$espacios vectoriales de dimensión $n \in \mathbb{N}$ ambos. Consideramos $\mathcal{B}_E$ una base de $E$ y $\mathcal{B}_V$ una base de $V.$ Las aplicaciones $[·]_{\mathcal{B}_E}: E \longrightarrow K^n$ y $[·]_{\mathcal{B}_V}: V \longrightarrow K^n$ son ambas isomorfismos lineales, y por tanto la aplicación $ \left( [·]_{\mathcal{B}_V} \right) ^{-1}: K^n \longrightarrow V$ es un isomorfismo lineal y $\left( [·]_{\mathcal{B}_V} \right) ^{-1} \circ [·]_{\mathcal{B}_E}: E \longrightarrow V$ es otro isomorfismo lineal entre $E$ y $V,$ luego $E$ y $V$ son isomorfos.

La conclusión de esto es que todos los espacios vectoriales de dimensión $n \in \mathbb{N}$ sobre el mismo cuerpo son "iguales" (como espacios vectoriales). En particular son "iguales" que $K^n.$

CAMBIO DE COORDENADAS

Una vez satisfecha nuestra curiosidad y demostrado un sólido teorema, vamos a ensuciarnos las manos intentando averiguar cómo cambiar de coordenadas de una base a otra base de un espacio vectorial. La idea es sencilla: dado $E$ un $K-$espacio vectorial de dimensión $n \in \mathbb{N}$ y dos bases de $E:$ $\mathcal{B}_1$ y $\mathcal{B}_2,$ queremos una manera de pasar de $[v]_{\mathcal{B}_1}$ a $[v]_{\mathcal{B}_2}.$ Vamos a investigar un poco.

Pongamos que las bases son: $$\begin{align*} \mathcal{B}_1 &= \left\lbrace u_1, \ ... \ , u_n \right\rbrace \\ \mathcal{B}_2 &= \left\lbrace e_1, \ ... \ , e_n \right\rbrace \end{align*}$$Por ser base, podemos expresar los vectores de $\mathcal{B}_1$ en función de los de la base $\mathcal{B}_2:$ $$\begin{align*} u_1 &= \lambda_{1 1}e_1 + \ ... \ +\lambda_{n 1}e_n \\ & \  ... \\ & \ ... \\ u_n &= \lambda_{1 n}e_1 + \ ... \ +\lambda_{n n}e_n \end{align*}$$Así, para cualquier vector $v \in E$ expresado en la base $\mathcal{B}_1$ se tiene: $$\begin{align*} v &= \mu_1 u_1 + \ ... \ + \mu_n u_n = \\ &= \mu_1(\lambda_{11} e_1 + \ ... \ + \lambda_{n1}e_n) + \ ... \ +\mu_n(\lambda_{1n} e_1 + \ ... \ + \lambda_{nn}e_n) = \\ &= (\mu_1 \lambda_{11} + \ ... \ + \mu_n \lambda_{1n})e_1 + \ ... \ + (\mu_1 \lambda_{n1} + \ ... \ + \mu_n \lambda_{nn})e_n  = \\ &= \left( \sum_{i=1}^{n} \lambda_{1i} \mu_i \right) e_1 + \ ... \ + \left( \sum_{i=1}^{n} \lambda_{ni} \mu_i \right) e_n \end{align*}$$de manera que esa es la expresión de $v$ en la base $\mathcal{B}_2,$ y podemos hallar sus coordenadas en esa base fácilmente: $$[v]_{\mathcal{B}_2}= \left( \sum_{i=1}^{n} \lambda_{1i} \mu_i ,  \ ... \ , \sum_{i=1}^{n} \lambda_{ni} \mu_i \right) $$Las coordenadas en $\mathcal{B}_2$ de $v$ son: $$[v]_{\mathcal{B}_2}=(\mu_1, \ ... \ , \mu_n) $$de manera que ya tenemos el cambio de coordenadas apañado: este será la aplicación de $K^n$ en sí mismo que lleve $(\mu_1, \ ... \ , \mu_n) \to \left( \sum_{i=1}^{n} \lambda_{1i} \mu_i ,  \ ... \ , \sum_{i=1}^{n} \lambda_{ni} \mu_i \right).$ Sin embargo podemos refinar esto un poco más. Para empezar, podemos pensar que el cambio de coordenadas es una aplicación que va de un espacio vectorial en sí mismo, y dadas dos bases, lleva cada vector en sí mismo. Además, asociada a esta aplicación (similar a la identidad), hay otra aplicación de $K^n$ en $K^n$ que cambia las coordenadas de cada vector de una base a la otra, de la forma que acabamos de calcular. Si expresamos este cálculo que hemos hecho en notación matricial llamando $[v]_{\mathcal{B}_2}=(\nu_1 , \ ... \ , \nu_n)$ a las coordenadas en $\mathcal{B}_2$ de $v$ obtenemos: $$\begin{pmatrix} \nu_1 \\ .. \\ .. \\ \nu_n \end{pmatrix} = \begin{pmatrix} \sum_{i=1}^{n} \lambda_{1i} \mu_i \\ .. \\ .. \\ \sum_{i=1}^{n} \lambda_{ni} \mu_i \end{pmatrix} = \begin{pmatrix} \lambda_{11} & ... & \lambda_{1n} \\ ... & ... & ... \\ \lambda_{n1} & ... & \lambda_{nn} \end{pmatrix} \begin{pmatrix} \mu_1 \\ .. \\ .. \\ \mu_n \end{pmatrix}  $$de manera que la aplicación de cambio de base lleva asociada una matriz que además es única (pues los $\lambda_{ij}$ son las coordenadas de los $u_i$ en la base $\mathcal{B}_2$ y por tanto son únicos). Vamos a formular formalmente lo que acabamos de ver:
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y sean $\mathcal{B}_1$ y $\mathcal{B}_2$ dos bases distintas de $E:$ $$\begin{align*} \mathcal{B}_1 &= \left\lbrace u_1, \ ... \ , u_n \right\rbrace \\ \mathcal{B}_2 &= \left\lbrace e_1, \ ... \ , e_n \right\rbrace \end{align*}$$para las cuales: $$\begin{align*} u_1 &= \lambda_{1 1}e_1 + \ ... \ +\lambda_{n 1}e_n \\ & \  ... \\ & \ ... \\ u_n &= \lambda_{1 n}e_1 + \ ... \ +\lambda_{n n}e_n . \end{align*}$$La aplicación de cambio de base: $$\begin{align*} T_{\mathcal{B}_1 \to \mathcal{B}_2}: \ \ &K^n \longrightarrow K^n \\ &[v]_{\mathcal{B}_1} \to [v]_{\mathcal{B}_2} \end{align*}$$es lineal, biyectiva y se representa mediante la matriz: $$M_{\mathcal{B}_1 \to \mathcal{B}_2} = \begin{pmatrix} \lambda_{11} & ... & \lambda_{1n} \\ ... & ... & ... \\ \lambda_{n1} & ... & \lambda_{nn} \end{pmatrix}$$de manera que: $$T_{\mathcal{B}_1 \to \mathcal{B}_2} \left( [v]_{\mathcal{B}_1} \right) = M_{\mathcal{B}_1 \to \mathcal{B}_2} \cdot [v]_{\mathcal{B}_1}$$

La discusión previa al enunciado nos muestra que $T_{\mathcal{B}_1 \to \mathcal{B}_2}$ lleva asociada la matriz $ M_{\mathcal{B}_1 \to \mathcal{B}_2} ,$ de manera que solo falta por probar que $T_{\mathcal{B}_1 \to \mathcal{B}_2}$ es lineal y biyectiva. La prueba es muy sencilla. Para ver que es lineal basta comprobar que se cumple la definición, y de hecho siempre que una aplicación $T$ sea de la forma $T(u)=M u$ donde $M$ es una matriz con coeficientes en un cuerpo, $T$ será una aplicación lineal. La biyectividad nos la da la unicidad de coordenadas y el hecho de que todo vector puede ser expresado mediante sus coordenadas. No vamos a detallarla más pues es simplemente desarrollar un poco esas ideas, pero animamos a los lectores a que lo intenten.

Indicación: se puede comprobar que para todo $v \in E:$ $$T_{\mathcal{B}_1 \to \mathcal{B}_2} ([v]_{\mathcal{B}_1}) = [([v]_{\mathcal{B}_1})^{-1}]_{\mathcal{B}_2}$$que es la composición de dos biyecciones, de manera que es otra biyección (al tener la igualdad para todo $v \in E$ y por tanto para todo $(\lambda_1, \ ... \ , \lambda_n) \in K^n$).

Por último, veamos un ejemplo de cómo calcular la matriz del cambio de base:

Sea $A=\begin{pmatrix} 1 & 1 \\ 2 & 1 \end{pmatrix}$ una matriz de $\mathbb{M}_2 \left( \mathbb{R} \right).$ Considero las bases: $$\begin{align*} \mathcal{B}_1  &=\left\lbrace \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}, \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} \right\rbrace \\ \mathcal{B}_2  &=\left\lbrace \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}, \begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \right\rbrace . \end{align*}$$Vamos a hallar la matriz de cambio de base $M_{\mathcal{B}_1 \to \mathcal{B}_2}$ y comprobar que las coordenadas de la matriz $A$ en la base $\mathcal{{B}_2}$ son $[A]_{{\mathcal{B}_2}}=(0,0,1,1).$

Empezamos encontrando los coeficientes $\lambda_{ij},$ para lo cual tenemos que encontrar las coordenadas de los vectores de la base $\mathcal{B}_1$ en la base $\mathcal{B}_2:$ $$\begin{align*} \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} &= \lambda_{11}\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + \lambda_{21}\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \lambda_{31}\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} + \lambda_{41}\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \\ \begin{pmatrix}  0 & 1 \\ 0 & 0 \end{pmatrix} &= \lambda_{12}\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + \lambda_{22}\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \lambda_{32}\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} + \lambda_{42}\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \\ \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} &= \lambda_{13}\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + \lambda_{23}\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \lambda_{33}\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} + \lambda_{43}\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \\ \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} &= \lambda_{14}\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} + \lambda_{24}\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} + \lambda_{34}\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} + \lambda_{44}\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \end{align*}$$De ahí se extraen $4$ sistemas de $4$ ecuaciones cada uno, se despejan los $\lambda_{ij}$ y la matriz queda: $$ M_{\mathcal{B}_1 \to \mathcal{B}_2}= \left( \lambda_{ij} \right)_{i,j=1}^{4,4}=\begin{pmatrix} 1 & -1 & 0 & 0 \\ 0 & 1 & 0 & -1 \\ 0 & 0 & 1 & -1 \\ 0 & 0 & 0 & 1 \\ \end{pmatrix}$$y teniendo en cuenta que $[A]_{\mathcal{B}_1}=(1,1,2,1),$ las coordenadas de $A$ en $\mathcal{B}_2$ son: $$\begin{align*} [A]_{{\mathcal{B}_2}} &= T_{\mathcal{B}_1 \to \mathcal{B}_2} \left( [A]_{\mathcal{B}_1} \right) = M_{\mathcal{B}_1 \to \mathcal{B}_2} \cdot [A]_{\mathcal{B}_1}= \\ \\ &= \begin{pmatrix} 1 & -1 & 0 & 0 \\ 0 & 1 & 0 & -1 \\ 0 & 0 & 1 & -1 \\ 0 & 0 & 0 & 1 \\ \end{pmatrix} \begin{pmatrix} 1 \\ 1 \\ 2 \\ 1 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 1 \\ 1 \end{pmatrix}. \end{align*}$$

Comentarios

Frecuentes

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

El Teorema del Sándwich

Aplicaciones y Cardinales