Inversa de un Isomorfismo Lineal

Igual que en el anterior post vimos cómo repercutía la composición de aplicaciones lineales sobre sus matrices asociadas, en este post lo que veremos es cómo se relacionan las matrices de aplicaciones lineales inversas.

INVERSA DE UN ISOMORFISMO LINEAL

Vamos a suponer que $E$ y $V$ son $K-$espacios vectoriales isomorfos, y que $T:E \longrightarrow V$ es un isomorfismo lineal (una aplicación lineal biyectiva). Consideramos también las bases $\mathcal{B}_E$ y $\mathcal{B}_V$ de $E$ y $V$ respectivamente. Por ser isomorfos, $E$ y $V$ tienen la misma dimensión, digamos $n \in \mathbb{N}.$ Ahora, sea $T^{-1}:V \longrightarrow E$ la aplicación (lineal) inversa de $T.$ Por ser inversas la una de la otra, se tiene: $$ T^{-1} \circ T = \text{id}_E \\ T \circ T^{-1}= \text{id}_V$$donde $\text{id}_E$ es la aplicación identidad en $E$ y lo mismo para $V.$ Tal y como vimos en el post anterior, lo que esto significa en términos de matrices es precisamente: $$\begin{align*} M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right) \cdot M_{\mathcal{B}_V, \mathcal{B}_E} \left( T^{-1} \right) &= I_n \\ M_{\mathcal{B}_V, \mathcal{B}_E} \left( T^{-1} \right) \cdot M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right) &= I_n \end{align*}$$es decir, que las matrices de la aplicación $T$ y de su inversa son matrices inversas: $$ \left( M_{\mathcal{B}_E, \mathcal{B}_V} \left( T \right) \right) ^{-1} =  M_{\mathcal{B}_V, \mathcal{B}_E} \left( T^{-1} \right) $$

El problema que surge ahora es el de calcular la matriz inversa de una matriz dada. Para empezar, no todas las matrices son invertibles, y suponiendo que la matriz que tenemos fuera invertible, ¿cómo podemos calcular su matriz inversa? Vamos a resolver ahora estas preguntas desde el punto de vista de las aplicaciones lineales.

INVERSA DE UNA MATRIZ

Consideramos el espacio de matrices sobre un cuerpo $K: \ \mathbb{M} \left( K \right) $ y tomamos una matriz $A$ de tamaño $m \times n.$ Vamos a ver bajo qué condiciones la matriz $A$ es invertible. Podemos considerar la aplicación lineal $T_A$ asociada a la matriz $A$ en las bases canónicas de $K^n$ y $K^m,$ dada por: $$ \begin{align*} T_A: K^n \longrightarrow K^m \\ v \mapsto A \cdot v \end{align*}$$Ahora supongamos que $B$ es otra matriz, de tamaño $p \times q$ y que además es la inversa de $A,$ es decir, $B \cdot A = A \cdot B = I.$ Entonces, para empezar, se debe tener $p = n$ y $q=m,$ pues si no no podríamos multiplicar ambas matrices de las formas que hemos escrito.

Además, $B$ también tiene asociada una aplicación lineal, $T_B:$ $$ \begin{align*} T_B: K^m \longrightarrow K^n \\ w \mapsto B \cdot w \end{align*} $$En términos de aplicaciones lineales, que el producto de ambas matrices resulte en la matriz identidad quiere decir que tanto la composición de $T_A$ con $T_B$ como la composición de $T_B$ con $T_A$ ha de ser la aplicación identidad, luego son aplicaciones lineales inversas. Para que esto ocurra, $T_A$ y $T_B$ tienen que ser biyectivas, y esto quiere decir en particular que la dimensión del sub-espacio imagen de ambas tiene que ser la misma que la del espacio de partida, y que la dimensión del núcleo de ambas tiene que ser $0.$ Por tanto, ha de ocurrir $n=m,$ y también tiene que ocurrir que $r(A)=n,$ que el rango de $A$ sea máximo.

$\text{Prop.}$ Una matriz $A \in \mathbb{M}\left( K \right)$ de coeficientes en $K$ es invertible si y solo si es cuadrada (de tamaño $n \times n$) y $r(A)=n.$

La demostración de la primera parte es la discusión que hemos hecho antes, y la de la otra parte simplemente consiste en escribirlo utilizando el mismo razonamiento que hemos realizado antes.

Ya tenemos las condiciones bajo las cuales una matriz es invertible, lo único que nos falta es encontrar una forma de calcular la inversa de una matriz invertible, y eso lo veremos en los siguientes posts.

Comentarios

Frecuentes

Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

El Teorema del Sándwich

Aplicaciones y Cardinales