Composición de Aplicaciones Lineales

En los anteriores posts hemos estado investigando las aplicaciones lineales. Hemos visto cómo toda aplicación lineal tiene asociada una matriz, y lo que vamos a ver en este post es cómo se comportan las matrices de las aplicaciones lineales con la composición de dichas aplicaciones. Veremos también cómo podemos facilitarnos la vida con diagramas conmutativos.

COMPOSICIÓN DE APLICACIONES LINEALES Y PRODUCTO DE MATRICES

Supongamos que $E$ y $V$ son dos $K-$espacios vectoriales de dimensiones $n$ y $m$ respectivamente, con $n,m \in \mathbb{N}.$ Supongamos que $T: E \longrightarrow V$ es una aplicación lineal de $E$ en $V,$ y vamos a establecer un par de bases para estos espacios: $\mathcal{B}_E$ será una base de $E$ y $\mathcal{B}_V$ será una base de $V.$ $$ \begin{align*} \mathcal{B}_E &= \left\lbrace e_1, \ ... \ , e_n \right\rbrace \\ \mathcal{B}_V &= \left\lbrace v_1, \ ... \ , v_m \right\rbrace . \end{align*} $$Como $T$ es lineal, sabemos que tiene asociada una matriz en las bases $\mathcal{B}_E$ y $\mathcal{B}_V:$ $M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right).$ Ahora consideremos un tercer espacio vectorial sobre $K,$ $W,$ con base $\mathcal{B}_W$ y consideremos la aplicación lineal $L: V \longrightarrow W.$ Al igual que antes, por ser lineal tiene asociada otra matriz en las bases $\mathcal{B}_V$ y $\mathcal{B}_W$: $M_{\mathcal{B}_V, \mathcal{B}_W} \left( L \right).$ Como sabemos que, por ser $T$ y $L$ lineales, su composición, $L \circ T: E \longrightarrow W,$ también es lineal, nos gustaría averiguar cuál es su matriz asociada en relación con las matrices $M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right)$ y $M_{\mathcal{B}_V, \mathcal{B}_W} \left( T \right).$

$$ \underset{\mathcal{B}_E}{E} \ \ \ \underset{M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right)}{\overset{T}{\longrightarrow}} \ \ \ \underset{\mathcal{B}_V}{V} \ \ \ \underset{M_{\mathcal{B}_V, \mathcal{B}_W} \left( L \right)}{\overset{L}{\longrightarrow}} \ \ \ \underset{\mathcal{B}_W}{W}$$

Podríamos ponernos a echar cuentas, pero como sabemos operar con matrices, podemos fijarnos en que para pasar de coordenadas en $\mathcal{B}_E$ de $E$ a coordenadas en $\mathcal{B}_W$ de $W$ podemos pasar primero de $E$ a $V$ y después de $V$ a $W$ de la siguiente manera:

Sea $e \in E$ un vector de $E$ con coordenadas $[e]_{\mathcal{B}_E}$ en $\mathcal{B}_E.$ Las coordenadas de $T(e)$ en $\mathcal{B}_V$ son: $$[T(e)]_{\mathcal{B}_V} = M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right) \cdot [e]_{\mathcal{B}_E}$$y las coordenadas de $L \left( T(e) \right)$ en $\mathcal{B}_W$ son: $$ \begin{align*}[L\left( T(e) \right)]_{\mathcal{B}_W} &= M_{\mathcal{B}_V, \mathcal{B}_W} \left( L \right) \cdot [T(e)]_{\mathcal{B}_V} = \\ &= M_{\mathcal{B}_V, \mathcal{B}_W} \left( L \right) \cdot M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right) \cdot [e]_{\mathcal{B}_E} \end{align*}$$ Como esto ocurre para cualquier $e \in E$ y la matriz asociada a la aplicación $L \circ T$ en estas bases es única, esta debe ser: $$ M_{\mathcal{B}_E, \mathcal{B}_W} \left( L \circ T \right) = M_{\mathcal{B}_V, \mathcal{B}_W} \left( L \right) \cdot M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right) $$

$\text{Comentario.}$ No hemos comentado por qué la matriz es única puesto que hicimos la demostración de manera constructiva. Es fácil comprobarlo si se supone que esto no ocurre: muy pronto se llega a una contradicción.

Aquí aparece otra gran ventaja de trabajar con matrices: la matriz de la composición en estas condiciones es el producto de las matrices. Para organizarnos de manera adecuada conviene estructurar propiamente un diagrama y así ver los productos que vamos a ir haciendo: si por ejemplo tuviésemos la composición de $5$ aplicaciones lineales, tendríamos que hacer al menos $5$ productos de matrices, y esto siempre y cuando estemos trabajando en las bases adecuadas (si no, hay que hacer cambios de base). Por eso (y por más razones que veremos conforme avancemos) es cómodo utilizar diagramas conmutativos, que nos ayudan a organizarnos. Reciben este nombre porque a menudo ofrecen varios caminos para moverse de un espacio a otro y por todos ellos se llega al mismo resultado, como veremos en el ejemplo a continuación.

Consideramos $\mathbb{R}^4$ y el espacio de matrices $\mathbb{M}_2 \left( \mathbb{R} \right)$ como espacios vectoriales (sobre $\mathbb{R}$). Consideramos también las siguientes bases:

$$\begin{align*} \mathcal{B}_C &= \left\lbrace (1,0,0,0), \ (0,1,0,0), \ (0,0,1,0), \ (0,0,0,1) \right\rbrace \\ \mathcal{B} &= \left\lbrace (1,1,0,0), \ (0,1,1,0), \ (0,0,1,1), \ (1,0,0,1) \right\rbrace \end{align*}$$ de $\mathbb{R}^4$ y:

$$\begin{align*} \mathcal{B}^M_C &= \left\lbrace \begin{pmatrix} 1 & 0 \\ 0 & 0 \end{pmatrix}, \ \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}, \ \begin{pmatrix} 0 & 0 \\ 1 & 0 \end{pmatrix}, \ \begin{pmatrix} 0 & 0 \\ 0 & 1 \end{pmatrix} \right\rbrace \\ \mathcal{B}^M &= \left\lbrace \begin{pmatrix} 1 & 0 \\ 2 & 0 \end{pmatrix}, \ \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}, \ \begin{pmatrix} 0 & 0 \\ 2 & 0 \end{pmatrix}, \ \begin{pmatrix} 2 & 0 \\ 0 & 1 \end{pmatrix} \right\rbrace \end{align*}$$ de $\mathbb{M}_2 \left( \mathbb{R} \right).$ Vamos a calcular la matriz de la aplicación $T: \mathbb{R}^4 \longrightarrow \mathbb{M}_2 \left( \mathbb{R} \right)$ dada por $$T(a,b,c,d)=\begin{pmatrix} a & 2b \\ 2c & 3d \end{pmatrix}$$en las bases $\mathcal{B}_C$ y $\mathcal{B}^M,$ $M_{\mathcal{B}_C, \mathcal{B}^M} \left( T \right).$ Para ello vamos a plantear un diagrama conmutativo y ver el problema como el de la composición de dos aplicaciones lineales:



Según el diagrama se tiene: $$ M_{\mathcal{B}_C, \mathcal{B}^M} \left( T \right) = M_{\mathcal{B}^M_C \to \mathcal{B}^M} \cdot M_{\mathcal{B}_C , \mathcal{B}^M_C} \left( T \right)$$recorriendo el camino inferior. Si realizamos los cálculos llegamos a que: $$ M_{\mathcal{B}_C, \mathcal{B}^M} \left( T \right) = \begin{pmatrix} 1 & 0 & 0 & 2 \\ 0 & 1 & 0 & 0 \\ 2 & 1 & 2 & 0 \\ 0 & 0 & 0 & 1 \end{pmatrix} \cdot \begin{pmatrix} 1 & 0 & 0 & 0 \\ 0 & 2 & 0 & 0 \\ 0 & 0 & 2 & 0 \\ 0 & 0 & 0 & 3 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 & 6 \\ 0 & 2 & 0 & 0 \\ 2 & 2 & 4 & 0 \\ 0 & 0 & 0 & 3 \end{pmatrix}$$

Es fácil comprobar también que recorriendo el camino superior se llega al mismo resultado (pues el diagrama es conmutativo).

Comentarios

Frecuentes

Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

El Teorema del Sándwich

Aplicaciones y Cardinales