Aplicaciones Lineales, Isomorfismos y Cambio de Base
Recapitulemos un poco antes de comenzar: hemos visto que todo
espacio vectorial
tiene una
base, e.d. un conjunto de vectores
linealmente independientes
que lo generan. También hemos visto que podemos representar cada vector del
espacio mediante sus
coordenadas respecto de una base, y que estas pueden ser distintas en función de la base que tomemos.
Habíamos dejado planteadas algunas cuestiones sin resolver, como cómo operar
con coordenadas y cómo hacer el cambio de coordenadas en función de qué base
tomemos. En el post de hoy vamos a resolver estas cuestiones, para lo cual
hablaremos de las aplicaciones lineales y de la matriz de cambio de base.
APLICACIONES LINEALES
En matemáticas, una vez definida una estructura, lo normal es preguntarse cómo
pueden ser las aplicaciones entre ese tipo de estructura. El ejemplo que
conocemos por ahora es el de
aplicaciones entre conjuntos. Las aplicaciones entre dos conjuntos que respetan la estructura de conjunto
son las funciones, y pueden ser inyectivas, sobreyectivas o biyectivas. Además
una función biyectiva entre dos conjuntos mantiene la misma estructura entre
ambos conjuntos: es decir, si $A$ es un conjunto y $B$ es otro, y existe una
función $f$ de $A$ en $B$ biyectiva, el conjunto $B$ es "igual" que el
conjunto $A,$ mantiene las mismas propiedades (cardinal, por ejemplo). Con los espacios vectoriales va a ocurrir algo parecido: si
una aplicación que parte de un espacio vectorial y aterriza en otro (sobre el
mismo cuerpo) respeta la estructura de espacio vectorial entonces diremos que
es una aplicación lineal, y si encima es biyectiva, la estructura del primer
espacio vectorial será "la misma" que la del segundo. Estos son ejemplos de lo
que llamamos homomorfismos: aplicaciones que respetan la estructura. Si encima
son biyectivos, se trata de isomorfismos, y cuando dos estructuras son
isomorfas, son "iguales". Las biyecciones son isomorfismos de conjuntos, y las
biyecciones lineales serán los isomorfismos de espacios vectoriales
(isomorfismos lineales). De manera parecida tendremos homomorfismos e
isomorfismos de grupos, anillos y demás estructuras.
$\text{Def.}$ Dados $V$ y $W$ $K-$espacios vectoriales y $T: V \longrightarrow
W$ una aplicación de $V$ en $W,$ decimos que $T$ es lineal si:
- $T(u+v)=T(u)+T(v)$ para todo $u,v \in V.$
- $T(\lambda u) = \lambda T(u)$ para todo $\lambda \in K, \ u \in V.$
Dicho esto, lo primero que vamos a hacer es darle un sentido a las operaciones
en coordenadas de las que hablábamos en el
post anterior. Para ello vamos a ver que $K^n$ podemos interpretarlo como un $K-$espacio
vectorial y que dada $B$ una base de $E,$ la aplicación $[·]_B:E
\longrightarrow K^n$ que toma un vector y devuelve sus coordenadas en la base
$B$ es una aplicación lineal.
$\text{Prop.}$ Sea $K$ un cuerpo con las operaciones "suma" $(+)$ y "producto"
$(\cdot)$. El conjunto: $$K^n=\left\lbrace (\lambda_1 , \ ... \ , \lambda_n):
\ \lambda_1, \ ... \ , \lambda_n \in K \right\rbrace$$es un $K-$espacio
vectorial de dimensión $n.$
Para demostrarlo hace falta dar la forma del producto de un escalar por un
vector y comprobar simplemente las condiciones de la
definición de espacio vectorial. Consideraremos $\varphi: K \times K^{n} \longrightarrow K^n$ como la
aplicación producto de escalar por vector y que lleva: $$\varphi \left(
\lambda, (\lambda_1, \ ... \ , \lambda_n) \right )=(\lambda \lambda_1, \ ...
\ , \lambda \lambda_n)$$y la denotaremos simplemente: $$\lambda (\lambda_1,
\ ... \ , \lambda_n) = (\lambda \lambda_1, \ ... \ , \lambda \lambda_n).$$La
operación suma en $K^n$ es la heredada de la suma en $K:$ $$(\lambda_1, \
... \ , \lambda_n)+(\mu_1 , \ ... \ , \mu_n)=(\lambda_1 + \mu_1 , \ ... \ ,
\lambda_n + \mu_n).$$Ahora comprobemos las condiciones:
-
$K^n$ es un grupo abeliano pues la suma de elementos de $K^n$ hereda las
propiedades de la suma en $K,$ y como $K$ es un cuerpo, en particular es
un grupo abeliano con respecto de la suma. Si es necesario se pueden
detallar las comprobaciones.
-
El elemento $1_K$ es neutro para $\varphi:$ $$1_K (\lambda_1 , \ ... \ ,
\lambda_n) = (1_K \lambda_1 , \ ... \ ,
1_K \lambda_n)= (\lambda_1 , \ ... \ , \lambda_n)$$por serlo
para $\cdot$ en $K.$
-
Si $\lambda , \mu \in K$ y $(\lambda_1, \ ... \ , \lambda_n) \in K^n:$
$$\begin{align*} \lambda \left( \mu (\lambda_1, \ ... \ , \lambda_n)
\right) &= \lambda (\mu \lambda_1, \ ... \ , \mu \lambda_n) =
(\lambda \mu \lambda_1, \ ... \ , \lambda \mu \lambda_n) \\
&= \left( \lambda \mu \right) (\lambda_1 , \ ... \ , \lambda_n)
\end{align*}$$
-
Si $\lambda \in K$ y $(\lambda_1 , \ ... \ , \lambda_n),(\mu_1 , \ ... \
, \mu_n) \in K^n:$ $$\begin{align*} \lambda \left( (\lambda_1 , \ ... \
, \lambda_n)+(\mu_1 , \ ... \ , \mu_n) \right) &= \lambda
(\lambda_1 + \mu_1 , \ ... \ , \lambda_n + \mu_n) = \\ &= (\lambda
\lambda_1 + \lambda \mu_1 , \ ... \ , \lambda \lambda_n + \lambda
\mu_n) = \\ &= \lambda (\lambda_1 , \ ... \ , \lambda_n) +
\lambda (\mu_1 , \ ... \ , \mu_n). \end{align*}$$
- Si $\lambda_, \mu \in K$ y $(\lambda_1 , \ ... \ , \lambda_n) \in K^n:$ $$\begin{align*} (\lambda + \mu) (\lambda_1 , \ ... \ , \lambda_n) &= ((\lambda + \mu) \lambda_1 , \ ... \ , (\lambda + \mu) \lambda_n)= \\ &= (\lambda \lambda_1 + \mu \lambda_1 , \ ... \ , \lambda \lambda_n + \mu \lambda_n) = \\ &= \lambda (\lambda_1 , \ ... \ , \lambda_n) + \mu (\lambda_1 , \ ... \ , \lambda_n). \end{align*}$$
Ahora para ver que la dimensión es $n$ basta encontrar una base. Podemos
considerar la base que más simple es: $$ \mathcal{B} = \left\lbrace e_1,
e_2, \ ... \ , e_n \right\rbrace $$donde $e_i=(0,0,\ ... \ ,0,1_K, 0, \ ...
\ ,0)$ tiene como $i-$ésima entrada el neutro para el producto en $K$ y el
resto de entradas son $0$ (el neutro para la suma en $K$). Tenemos que ver
dos cosas: que el conjunto es un sistema libre y que genera $K^n.$
Utilizaremos
notación matricial
por comodidad:
-
Veamos que es un sistema libre: $$ \begin{pmatrix} 0 \\ 0 \\ .. \\ 0
\end{pmatrix} = \lambda_1 \begin{pmatrix} 1_K \\ 0 \\ .. \\ 0
\end{pmatrix} + \lambda_2 \begin{pmatrix} 0 \\ 1_K \\ .. \\ 0
\end{pmatrix} + \ ... \ + \lambda_n \begin{pmatrix} 0 \\ 0 \\ .. \\ 1_K
\end{pmatrix} = \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ .. \\
\lambda_n \end{pmatrix}$$de manera que $\lambda_i = 0$ para todo
$i=1,2,...,n,$ luego los $e_i$ son linealmente independientes y el
sistema es libre.
- Veamos que $\langle \mathcal{B} \rangle = K^n:$ $$\begin{align*} \langle \mathcal{B} \rangle &= \left\lbrace \lambda_1 \begin{pmatrix} 1_K \\ 0 \\ .. \\ 0 \end{pmatrix} + \lambda_2 \begin{pmatrix} 0 \\ 1_K \\ .. \\ 0 \end{pmatrix} + \ ... \ + \lambda_n \begin{pmatrix} 0 \\ 0 \\ .. \\ 1_K \end{pmatrix} : \lambda_i \in K \right\rbrace = \\ &= \left\lbrace \begin{pmatrix} \lambda_1 \\ \lambda_2 \\ .. \\ \lambda_n \end{pmatrix}: \lambda_i \in K \right\rbrace =K^n \end{align*}$$
A menudo denotaremos a la base $\mathcal{B}$ (que hemos utilizado para
demostrar que la dimensión de $K^n$ como espacio vectorial) como base
canónica: $\mathcal{B_C}$.
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial de dimensión $n$ y sea
$\mathcal{B}$ una base de $E.$ La aplicación $[·]_{\mathcal{B}}:E
\longrightarrow K^n$ que lleva un vector en sus coordenadas con respecto de
$\mathcal{B}$ es un isomorfismo lineal.
Pongamos $\mathcal{B}=\left\lbrace e_1, \ ... \ , e_n \right\rbrace.$
Tenemos que demostrar que $[·]_{\mathcal{B}}$ es lineal y biyectiva:
-
Biyectiva
Para ver que es biyectiva basta ver que es inyectiva y sobreyectiva. La inyectividad nos la da la unicidad de la expresión en coordenadas, resultado que probamos en el post anterior. Por otro lado, si $(\lambda_1, \ ... \ , \lambda_n) \in K^n$ entonces siempre podemos encontrar $v=\lambda_1 e_1 + \ ... \ + \lambda_n e_n$ tal que $[v]_{\mathcal{B}}=(\lambda_1, \ ... \ , \lambda_n),$ luego es sobreyectiva.
-
Lineal
La linealidad nos la da la proposición sobre operaciones en coordenadas que demostramos en el post anterior.
Lo que esto nos confirma es que las coordenadas son verdaderamente una buena
herramienta para trabajar con espacios vectoriales puesto que todo espacio
vectorial de dimensión $n$ sobre el cuerpo $K$ es isomorfo a $K^n,$ es decir,
son "el mismo" espacio vectorial, y las operaciones con coordenadas
verdaderamente tienen sentido tal y como las hemos definido. Además, si la
composición de isomorfismos lineales fuera un isomorfismo lineal y la inversa
de un isomorfismo lineal (que existe pues todo isomorfismo lineal es
biyectivo) también fuera un isomorfismo lineal, entonces
todo espacio vectorial de dimensión $n$ sobre $K$ sería isomorfo a
cualquier otro espacio vectorial de la misma dimensión sobre $K$, pues bastaría componer el paso a coordenadas de un espacio a $K^n$ con la
inversa del paso a coordenadas del otro espacio a $K^n$. Para investigar esto
necesitamos trabajar un poco más con las aplicaciones lineales y en particular
con los isomorfismos lineales.
ISOMORFISMOS LINEALES
Vamos a ver cómo lo que marcábamos antes es cierto, para lo cual vamos a
querer ver si los isomorfismos lineales cumplen todas las propiedades que
nos gustaría que cumpliesen (en relación a su inversa y a la composición).
En particular vamos a comprobar que la composición de aplicaciones lineales
sigue siendo una aplicación lineal y que todo isomorfismo lineal tiene una
inversa también lineal.
$\text{Prop.}$ Sean $E,V,W$ tres $K-$espacios vectoriales y $T:E
\longrightarrow V$ y $L:V \longrightarrow W$ dos aplicaciones lineales.
Entonces la composición: $L \circ T: E \longrightarrow W$ es otra aplicación
lineal.
Para demostrarlo basta comprobar las condiciones dadas en la definición:
- Dados $u,v \in E$ se tiene: $$\begin{align*} L \circ T (u+v) &= L \left( T(u+v) \right) = L \left( T(u)+T(v) \right) = \\ &=L \left( T(u) \right) + L \left( T(v) \right) = L \circ T (u) + L \circ T (v). \end{align*}$$
- Dados $\lambda \in K, \ u \in E$ se tiene: $$\begin{align*}L \circ T (\lambda u) &= L \left( T( \lambda u ) \right) = L \left( \lambda T(u) \right) = \\ &= \lambda L \left( T(u) \right) = \lambda \left( L \circ T (u) \right). \end{align*}$$
$\text{Prop.}$ Sean $E,V$ $K-$espacios vectoriales de dimensión $n \in
\mathbb{N}$ y $T:E \longrightarrow V$ un isomorfismo lineal. Entonces existe
$T^{-1}: V \longrightarrow E$ y es otro isomorfismo lineal.
Por ser $T$ un isomorfismo lineal es biyectiva y por tanto sabemos que la
inversa de $T$ existe. La denotaremos $L.$ Falta demostrar que $L$ es
lineal, para lo cual basta comprobar las dos condiciones que dimos en la
definición:
- Sean $u_2, v_2 \in V.$ Por ser $T$ biyectiva es sobreyectiva y por tanto existen $u_1,v_1 \in E$ tales que $u_2=T(u_1)$ y $v_2=T(v_1).$ Entonces: $$\begin{align*} L(u_2 + v_2) &= L( T(u_1) + T(v_1))= L(T(u_1 + v_1))= \\ &= u_1 + v_1 = L(u_2) + L(v_2). \end{align*}$$
- Sean $\lambda \in K$ y $u_2 \in V.$ De nuevo podemos afirmar que existe $u_1 \in E$ para el cual $u_2=T(u_1).$ Calculamos $L( \lambda u_2):$ $$\begin{align*} L(\lambda u_2) &= L( \lambda T(u_1)) = L(T(\lambda u_1)) = \\ &= \lambda u_1 = \lambda L(u_2) . \end{align*}$$
Con esto queda demostrado que $L,$ que es $T^{-1},$ es lineal, luego
también es un isomorfismo lineal.
Además, ya sabemos que
la composición de funciones biyectivas es otra función biyectiva, de manera que junto con lo que hemos observado antes, podemos deducir que
ser espacios vectoriales isomorfos es una
relación de equivalencia y podemos demostrar la observación que hemos hecho antes:
$\text{Teorema.}$ Todos los $K-$espacios vectoriales de dimensión $n \in
\mathbb{N}$ son isomorfos (entre ellos). En particular lo son a $K^n.$
Para verlo, tomemos $E$ y $V$ dos $K-$espacios vectoriales de dimensión $n
\in \mathbb{N}$ ambos. Consideramos $\mathcal{B}_E$ una base de $E$ y
$\mathcal{B}_V$ una base de $V.$ Las aplicaciones $[·]_{\mathcal{B}_E}: E
\longrightarrow K^n$ y $[·]_{\mathcal{B}_V}: V \longrightarrow K^n$ son
ambas isomorfismos lineales, y por tanto la aplicación $ \left(
[·]_{\mathcal{B}_V} \right) ^{-1}: K^n \longrightarrow V$ es un isomorfismo
lineal y $\left( [·]_{\mathcal{B}_V} \right) ^{-1} \circ
[·]_{\mathcal{B}_E}: E \longrightarrow V$ es otro isomorfismo lineal entre
$E$ y $V,$ luego $E$ y $V$ son isomorfos.
La conclusión de esto es que
todos los espacios vectoriales de dimensión $n \in \mathbb{N}$ sobre el
mismo cuerpo son "iguales" (como espacios vectoriales). En particular son "iguales" que $K^n.$
CAMBIO DE COORDENADAS
Una vez satisfecha nuestra curiosidad y demostrado un sólido teorema, vamos a
ensuciarnos las manos intentando averiguar cómo cambiar de coordenadas de una
base a otra base de un espacio vectorial. La idea es sencilla: dado $E$ un
$K-$espacio vectorial de dimensión $n \in \mathbb{N}$ y dos bases de $E:$
$\mathcal{B}_1$ y $\mathcal{B}_2,$ queremos una manera de pasar de
$[v]_{\mathcal{B}_1}$ a $[v]_{\mathcal{B}_2}.$ Vamos a investigar un poco.
Pongamos que las bases son: $$\begin{align*} \mathcal{B}_1 &= \left\lbrace
u_1, \ ... \ , u_n \right\rbrace \\ \mathcal{B}_2 &= \left\lbrace e_1, \
... \ , e_n \right\rbrace \end{align*}$$Por ser base, podemos expresar los
vectores de $\mathcal{B}_1$ en función de los de la base $\mathcal{B}_2:$
$$\begin{align*} u_1 &= \lambda_{1 1}e_1 + \ ... \ +\lambda_{n 1}e_n \\
& \ ... \\ & \ ... \\ u_n &= \lambda_{1 n}e_1 + \ ... \
+\lambda_{n n}e_n \end{align*}$$Así, para cualquier vector $v \in E$
expresado en la base $\mathcal{B}_1$ se tiene: $$\begin{align*} v &= \mu_1
u_1 + \ ... \ + \mu_n u_n = \\ &= \mu_1(\lambda_{11} e_1 + \ ... \ +
\lambda_{n1}e_n) + \ ... \ +\mu_n(\lambda_{1n} e_1 + \ ... \ +
\lambda_{nn}e_n) = \\ &= (\mu_1 \lambda_{11} + \ ... \ + \mu_n
\lambda_{1n})e_1 + \ ... \ + (\mu_1 \lambda_{n1} + \ ... \ + \mu_n
\lambda_{nn})e_n = \\ &= \left( \sum_{i=1}^{n} \lambda_{1i} \mu_i
\right) e_1 + \ ... \ + \left( \sum_{i=1}^{n} \lambda_{ni} \mu_i \right) e_n
\end{align*}$$de manera que esa es la expresión de $v$ en la base
$\mathcal{B}_2,$ y podemos hallar sus coordenadas en esa base fácilmente:
$$[v]_{\mathcal{B}_2}= \left( \sum_{i=1}^{n} \lambda_{1i} \mu_i , \ ...
\ , \sum_{i=1}^{n} \lambda_{ni} \mu_i \right) $$Las coordenadas en
$\mathcal{B}_2$ de $v$ son: $$[v]_{\mathcal{B}_2}=(\mu_1, \ ... \ , \mu_n)
$$de manera que ya tenemos el cambio de coordenadas apañado: este será la
aplicación de $K^n$ en sí mismo que lleve $(\mu_1, \ ... \ , \mu_n) \to \left(
\sum_{i=1}^{n} \lambda_{1i} \mu_i , \ ... \ , \sum_{i=1}^{n}
\lambda_{ni} \mu_i \right).$ Sin embargo podemos refinar esto un poco más.
Para empezar, podemos pensar que el cambio de coordenadas es una aplicación
que va de un espacio vectorial en sí mismo, y dadas dos bases, lleva cada
vector en sí mismo. Además, asociada a esta aplicación (similar a la
identidad), hay otra aplicación de $K^n$ en $K^n$ que cambia las coordenadas
de cada vector de una base a la otra, de la forma que acabamos de calcular. Si
expresamos este cálculo que hemos hecho en notación matricial llamando
$[v]_{\mathcal{B}_2}=(\nu_1 , \ ... \ , \nu_n)$ a las coordenadas en
$\mathcal{B}_2$ de $v$ obtenemos: $$\begin{pmatrix} \nu_1 \\ .. \\ .. \\ \nu_n
\end{pmatrix} = \begin{pmatrix} \sum_{i=1}^{n} \lambda_{1i} \mu_i \\ ..
\\ .. \\ \sum_{i=1}^{n} \lambda_{ni} \mu_i \end{pmatrix} =
\begin{pmatrix} \lambda_{11} & ... & \lambda_{1n} \\ ... & ...
& ... \\ \lambda_{n1} & ... & \lambda_{nn} \end{pmatrix}
\begin{pmatrix} \mu_1 \\ .. \\ .. \\ \mu_n \end{pmatrix} $$de manera que
la aplicación de cambio de base lleva asociada una matriz que además es única
(pues los $\lambda_{ij}$ son las coordenadas de los $u_i$ en la base
$\mathcal{B}_2$ y por tanto son únicos). Vamos a formular formalmente lo que
acabamos de ver:
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y sean $\mathcal{B}_1$ y
$\mathcal{B}_2$ dos bases distintas de $E:$ $$\begin{align*} \mathcal{B}_1
&= \left\lbrace u_1, \ ... \ , u_n \right\rbrace \\ \mathcal{B}_2 &=
\left\lbrace e_1, \ ... \ , e_n \right\rbrace \end{align*}$$para las cuales:
$$\begin{align*} u_1 &= \lambda_{1 1}e_1 + \ ... \ +\lambda_{n 1}e_n \\
& \ ... \\ & \ ... \\ u_n &= \lambda_{1 n}e_1 + \ ... \
+\lambda_{n n}e_n . \end{align*}$$La aplicación de cambio de base:
$$\begin{align*} T_{\mathcal{B}_1 \to \mathcal{B}_2}: \ \ &K^n
\longrightarrow K^n \\ &[v]_{\mathcal{B}_1} \to [v]_{\mathcal{B}_2}
\end{align*}$$es lineal, biyectiva y se representa mediante la matriz:
$$M_{\mathcal{B}_1 \to \mathcal{B}_2} = \begin{pmatrix} \lambda_{11} & ...
& \lambda_{1n} \\ ... & ... & ... \\ \lambda_{n1} & ... &
\lambda_{nn} \end{pmatrix}$$de manera que: $$T_{\mathcal{B}_1 \to
\mathcal{B}_2} \left( [v]_{\mathcal{B}_1} \right) = M_{\mathcal{B}_1 \to
\mathcal{B}_2} \cdot [v]_{\mathcal{B}_1}$$
La discusión previa al enunciado nos muestra que $T_{\mathcal{B}_1 \to
\mathcal{B}_2}$ lleva asociada la matriz $ M_{\mathcal{B}_1 \to
\mathcal{B}_2} ,$ de manera que solo falta por probar que $T_{\mathcal{B}_1
\to \mathcal{B}_2}$ es lineal y biyectiva. La prueba es muy sencilla. Para
ver que es lineal basta comprobar que se cumple la definición, y de hecho
siempre que una aplicación $T$ sea de la forma $T(u)=M u$ donde $M$ es una
matriz con coeficientes en un cuerpo, $T$ será una aplicación lineal. La
biyectividad nos la da la unicidad de coordenadas y el hecho de que todo
vector puede ser expresado mediante sus coordenadas. No vamos a detallarla
más pues es simplemente desarrollar un poco esas ideas, pero animamos a los
lectores a que lo intenten.
Indicación: se puede comprobar que para todo $v \in E:$ $$T_{\mathcal{B}_1 \to \mathcal{B}_2} ([v]_{\mathcal{B}_1}) = [([v]_{\mathcal{B}_1})^{-1}]_{\mathcal{B}_2}$$que es la composición de dos biyecciones, de manera que es otra biyección (al tener la igualdad para todo $v \in E$ y por tanto para todo $(\lambda_1, \ ... \ , \lambda_n) \in K^n$).
Indicación: se puede comprobar que para todo $v \in E:$ $$T_{\mathcal{B}_1 \to \mathcal{B}_2} ([v]_{\mathcal{B}_1}) = [([v]_{\mathcal{B}_1})^{-1}]_{\mathcal{B}_2}$$que es la composición de dos biyecciones, de manera que es otra biyección (al tener la igualdad para todo $v \in E$ y por tanto para todo $(\lambda_1, \ ... \ , \lambda_n) \in K^n$).
Por último, veamos un ejemplo de cómo calcular la matriz del cambio de base:
Sea $A=\begin{pmatrix} 1 & 1 \\ 2 & 1 \end{pmatrix}$ una matriz de
$\mathbb{M}_2 \left( \mathbb{R} \right).$ Considero las bases:
$$\begin{align*} \mathcal{B}_1 &=\left\lbrace \begin{pmatrix} 1
& 0 \\ 0 & 0 \end{pmatrix} , \begin{pmatrix} 0 & 1 \\ 0 & 0
\end{pmatrix} , \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix},
\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} \right\rbrace \\
\mathcal{B}_2 &=\left\lbrace \begin{pmatrix} 1 & 0 \\ 0 & 0
\end{pmatrix} , \begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} ,
\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}, \begin{pmatrix} 1 &
1 \\ 1 & 1 \end{pmatrix} \right\rbrace . \end{align*}$$Vamos a hallar la
matriz de cambio de base $M_{\mathcal{B}_1 \to \mathcal{B}_2}$ y comprobar que
las coordenadas de la matriz $A$ en la base $\mathcal{{B}_2}$ son
$[A]_{{\mathcal{B}_2}}=(0,0,1,1).$
Empezamos encontrando los coeficientes $\lambda_{ij},$ para lo cual tenemos
que encontrar las coordenadas de los vectores de la base $\mathcal{B}_1$ en la
base $\mathcal{B}_2:$ $$\begin{align*} \begin{pmatrix} 1 & 0 \\ 0 & 0
\end{pmatrix} &= \lambda_{11}\begin{pmatrix} 1 & 0 \\ 0 & 0
\end{pmatrix} + \lambda_{21}\begin{pmatrix} 1 & 1 \\ 0 & 0
\end{pmatrix} + \lambda_{31}\begin{pmatrix} 0 & 0 \\ 1 & 0
\end{pmatrix} + \lambda_{41}\begin{pmatrix} 1 & 1 \\ 1 & 1
\end{pmatrix} \\ \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}
&= \lambda_{12}\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} +
\lambda_{22}\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} +
\lambda_{32}\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} +
\lambda_{42}\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \\
\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} &=
\lambda_{13}\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} +
\lambda_{23}\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} +
\lambda_{33}\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} +
\lambda_{43}\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix} \\
\begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} &=
\lambda_{14}\begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix} +
\lambda_{24}\begin{pmatrix} 1 & 1 \\ 0 & 0 \end{pmatrix} +
\lambda_{34}\begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix} +
\lambda_{44}\begin{pmatrix} 1 & 1 \\ 1 & 1 \end{pmatrix}
\end{align*}$$De ahí se extraen $4$ sistemas de $4$ ecuaciones cada uno, se
despejan los $\lambda_{ij}$ y la matriz queda: $$ M_{\mathcal{B}_1 \to
\mathcal{B}_2}= \left( \lambda_{ij} \right)_{i,j=1}^{4,4}=\begin{pmatrix} 1
& -1 & 0 & 0 \\ 0 & 1 & 0 & -1 \\ 0 & 0 & 1
& -1 \\ 0 & 0 & 0 & 1 \\ \end{pmatrix}$$y teniendo en cuenta
que $[A]_{\mathcal{B}_1}=(1,1,2,1),$ las coordenadas de $A$ en $\mathcal{B}_2$
son: $$\begin{align*} [A]_{{\mathcal{B}_2}} &= T_{\mathcal{B}_1 \to
\mathcal{B}_2} \left( [A]_{\mathcal{B}_1} \right) = M_{\mathcal{B}_1 \to
\mathcal{B}_2} \cdot [A]_{\mathcal{B}_1}= \\ \\ &= \begin{pmatrix} 1 &
-1 & 0 & 0 \\ 0 & 1 & 0 & -1 \\ 0 & 0 & 1 & -1
\\ 0 & 0 & 0 & 1 \\ \end{pmatrix} \begin{pmatrix} 1 \\ 1 \\ 2 \\ 1
\end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 1 \\ 1 \end{pmatrix}. \end{align*}$$
Comentarios
Publicar un comentario