Las Matrices

En este post vamos a hablar de las matrices. También hablaremos de la estructura de los espacios de matrices, de manera que llegados a ese punto del post quizá convenga echarle un vistazo a los otros tres posts sobre espacios vectoriales: Espacios Vectoriales, Sistemas Libres y Generadores y Base, Dimensión y Estructura de un Espacio Vectorial si es que el lector aún no los conoce.

LAS MATRICES

Normalmente aparecen por primera vez en la asignatura de matemáticas de segundo de bachillerato. No suele explicarse bien lo que son y al nivel al que se dan las matemáticas en bachillerato tampoco se les puede dar una interpretación intuitiva o significativa de manera que el alumno se haga una idea clara. Parece que cuando se nos presentan son simplemente unos "bloques" de números que amenazan con llevarse por delante la asignatura. Lo cierto es que las matrices tienen muchísimos usos en matemáticas: pueden representar ciertos tipos de aplicaciones, pueden formar estructuras algebraicas interesantes e incluso aparecen en el cálculo de las derivadas de funciones de varias variables. Por esta razón lo más lógico es decir que una matriz es una disposición bidimensional de cosas. No podemos restringir esas cosas a números porque podríamos pensar en una matriz de funciones, y también podemos meter, como entradas en una matriz, los elementos de un cuerpo, por ejemplo.

Con la ilusión de tener algo a lo que poder llamar matriz y sin complicarnos la vida demasiado pero de manera que nos permita toda la variabilidad de la que las matrices disponen, vamos a definir una matriz de la siguiente manera:
$\text{Def.}$ Una matriz es una disposición rectangular de objetos matemáticos para los cuales hay definida alguna operación.
A la parte de que hay definida una operación llegaremos más tarde pero la motivación es que no vamos a necesitar matrices (o al menos no vamos a necesitar darles un nombre y definirlas) si no podemos hacer nada con ellas. Lo que vamos a hacer ahora es darle un sentido a las matrices con coeficientes (entradas) en un cuerpo $K$ como si de un conjunto cualquiera se tratase. Es decir, vamos a tratar a las matrices como un objeto más, sin darle significado (por ahora). Al final del post (y en nuevos posts en los que volverán a aparecer) se explicarán algunos de los significados que tienen las matrices en distintos contextos. Se entenderá mejor conforme vayamos viendo ejemplos... espero.

MATRICES SOBRE UN CUERPO

Dado un cuerpo, $K,$ sobre el que tenemos definidas las operaciones suma $(+)$ y producto $( \cdot ) $ podemos considerar matrices cuyas entradas sean elementos de $K.$ La dimensión de una matriz, o el tamaño de una matriz será el par de números naturales, $m$ y $n,$ que nos indicará la cantidad de filas y columnas (respectivamente) que tendrá la matriz. Si tiene infinitas filas o infinitas columnas (o ambas) diremos que la matriz es infinita (aunque probablemente no trataremos estos casos, al menos por ahora). Dicho esto, podemos pensar en el conjunto de matrices de tamaño $m \times n$ con entradas (o coeficientes) en $K:$ $$ \mathbb{M}_{m \times n} \left( K \right) =  \left\lbrace \begin{pmatrix} a_{1 \ 1} & a_{1 \ 2} & ... & a_{1 \ n} \\ a_{2 \ 1} & a_{2 \ 2} & ... & a_{2 \ n} \\ ... & ... & ... & ... \\ a_{m \ 1} & a_{m \ 2} & ... & a_{m \ n}  \end{pmatrix}: \ a_{i \ j} \in K, i=1,...,m ; \ j=1, ... , n \right\rbrace$$Aprovechando que en $K$ tenemos definidas dos operaciones, vamos a ver cómo (y bajo qué condiciones es posible) realizarlas en el espacio de matrices. Vamos a llamar $\mathbb{M} \left( K \right)$ al conjunto de todas las matrices con coeficientes en $K.$ Sin duda, se tiene $\mathbb{M}_{m \times n} \left( K \right) \subset \mathbb{M} \left( K \right)$ para cualesquiera $m,n \in \mathbb{N}.$ Además antes de estudiar las operaciones, vamos a introducir algo de notación para poder entendernos mejor:
$\text{Not.}$ Dada $A$ una matriz, denotaremos $A=(a_{i \ j})_{i,j=1}^{m,n}$ en ocasiones para referirnos al contenido (o por ejemplo al nombre) de las entradas de $A,$ de manera que $a_{i \ j}$ es la entrada que ocupa la posición $(i,j)$ en la matriz $A.$ También denotaremos la fila $i-$ésima de la matriz $A$ por $A_i$ y la columna $j-$ésima por $A^j.$

Suma
La "suma" de matrices se hereda de la suma de $K.$ Para sumar dos matrices estas han de ser de la misma dimensión. Es decir, si $A$ es de dimensión $m \times n$ y $B$ es de dimensión $l \times k,$ solo vamos a poder sumarlas si $m=l$ y $n=k.$ Para sumarlas, se suman las entradas de las mismas posiciones: si $A=(a_{i \ j})_{i,j=1}^{m,n}$ y $B=(b_{i \ j})_{i,j=1}^{m,n}$ entonces: $$ (A+B)_{i \ j} = a_{i \ j}+b_{i \ j}$$Veamos unos pocos ejemplos:

En $\mathbb{M}_{2 \times 2} \left( \mathbb{R} \right):$ $$ \begin{pmatrix} 1 & 2 \\ 2 & 3  \end{pmatrix} + \begin{pmatrix} 5 & 1 \\ 3 & 3  \end{pmatrix} = \begin{pmatrix} 6 & 3 \\ 5 & 6  \end{pmatrix}$$En $\mathbb{M}_{2 \times 3} \left( \mathbb{R} \right):$ $$ \begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \end{pmatrix} + \begin{pmatrix} 2 & 2 & 1 \\ 1 & 3 & 2 \end{pmatrix} = \begin{pmatrix} 3 & 2 & 1 \\ 2 & 4 & 2  \end{pmatrix}$$En $\mathbb{M}_{3 \times 1} \left( \mathbb{C} \right):$ $$ \begin{pmatrix} i \\ 2 \\ 2+i   \end{pmatrix} + \begin{pmatrix} 1 \\ 2i \\ 1-2i  \end{pmatrix} = \begin{pmatrix} 1+i \\ 2+2i \\ 3-i \end{pmatrix}$$


Producto
Para poder hacer el "producto" de dos matrices es necesario poder hacer el producto de sus entradas, y por ello es necesario estar en un conjunto en el que se permita esta segunda operación. Los cuerpos son por tanto un candidato ideal sobre los cuales hacer matrices. Sin embargo también podríamos considerar matrices sobre anillos, por ejemplo. Para multiplicar matrices es necesario que el número de columnas de la primera matriz sea igual que el número de filas de la segunda. Es decir, si queremos multiplicar las matrices $A$ con $B,$ es necesario que $A$ tenga dimensión $m \times n$ y $B$ tenga dimensión $n \times p,$ donde $m,n,p \in \mathbb{N}.$ De esto deducimos que el producto no es conmutativo. De hecho, si $m \neq p$ ni siquiera tiene sentido considerar el producto de $B$ con $A$ pues no es nada definido. Supongamos que $A=(a_{i \ j})_{i,j=1}^{m,n}$ y $B=(b_{i \ j})_{i,j=1}^{n,p}.$ Entonces: $$ (A \cdot B)_{i \ j} = \sum_{k=1}^{n} a_{i \ k} \cdot b_{k \ j}=a_{i \ 1}b_{1 \ j} + a_{i \ 2}b_{2 \ j}+ \ ... \ + a_{i \ n}b_{n \ j}.$$Veamos unos pocos ejemplos:

En $\mathbb{M} \left( \mathbb{R} \right):$ $$ \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} \cdot \begin{pmatrix} 2 & 3 \\ 3 & 4 \end{pmatrix} = \begin{pmatrix} 2 & 3 \\ 3 & 4 \end{pmatrix}$$ $$ \begin{pmatrix} 2 & 3 \\ 3 & 4 \end{pmatrix} \cdot \begin{pmatrix} 1 & 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 2 & 3 \\ 3 & 4 \end{pmatrix}$$ $$ \begin{pmatrix} 1 & 2 & 3 \\ 0 & 0 & 1 \end{pmatrix} \cdot \begin{pmatrix} 2 & 3 \\ 1 & 0 \\ 2 & 1  \end{pmatrix} = \begin{pmatrix} 10 & 6 \\ 2 & 1 \end{pmatrix}$$En $\mathbb{M}_{n \times n} \left( K \right)$ la matriz: $$ I_n = \begin{pmatrix} 1_K & 0 & ... & 0 \\ 0 & 1_K & ... & 0 \\ ... & ... & ... & ... \\ 0 & 0 & ... & 1_K \end{pmatrix} $$se llama matriz identidad y cumple que para toda matriz $A \in \mathbb{M}_{n \times n} \left( K \right),$ se tiene $A \cdot I_n = I_n \cdot A = A.$


ESPACIO DE MATRICES CUADRADAS

De especial interés es el conjunto de matrices sobre un cuerpo $K$ (esto es, con entradas en $K$) y de dimensión $n \times n:$ $\mathbb{M}_{n \times n} \left( K \right)=\mathbb{M}_{n} \left( K \right).$ Por todo lo que acabamos de hablar, en $\mathbb{M}_{n } \left( K \right)$ podemos sumar y multiplicar matrices, de manera que deberíamos comprobar qué propiedades tienen dichas dos operaciones para ver si podemos determinar la estructura de $\mathbb{M}_{n} \left( K \right).$ La suma de matrices cumple siempre las mismas propiedades que la suma en $K,$ de manera que $\mathbb{M}_{n} \left( K \right)$ es un grupo (abeliano, e.d. conmutativo) con respecto a la suma. Esto es porque para sumar matrices se suman sus entradas de la misma manera que se suman elementos del cuerpo $K.$ El producto es un poco más complicado. Si bien es asociativo, distributivo con respecto de la suma y tiene elemento neutro (la matriz identidad), no es necesariamente conmutativo y no toda matriz tiene elemento inverso con respecto al producto.

Este conjunto (con estructura de anillo) puede dotarse de la estructura de espacio vectorial sobre el cuerpo $K,$ ya que es un grupo abeliano y podemos definir la operación de producto por un escalar como la matriz en la que cada entrada es el resultado del producto entre el elemento de la matriz original que ocupa dicha entrada y el escalar. Es decir, el producto de un escalar por una matriz se calcula haciendo el producto de cada una de las entradas de la matriz por el escalar. En los siguientes posts trabajaremos un poco más con el espacio de matrices cuadradas de dimensión $n.$

SIGNIFICADO

Comúnmente veremos las matrices como formas de organizar vectores. Para nosotros cada columna de una matriz será un vector (por ejemplo de $\mathbb{R}^n$), y expresaremos: $$ (x_1, \ ... \ , x_n) = \begin{pmatrix} x_1 \\ ... \\ x_n \end{pmatrix}$$a menudo para denotar vectores. Veamos un par de ejemplos:

En $\mathbb{R}^3$ tenemos $3$ vectores: $ (x_1,y_1,z_1),  \ (x_2,y_2,z_2), \ (x_3,y_3,z_3) $ y queremos ver si son linealmente independientes. Planteamos la ecuación en forma matricial: $$ \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} = a \begin{pmatrix} x_1 \\ y_1 \\ z_1 \end{pmatrix} + b \begin{pmatrix} x_2 \\ y_2 \\ z_2 \end{pmatrix} + c \begin{pmatrix} x_3 \\ y_3 \\ z_3 \end{pmatrix}$$Es fácil comprobar que la igualdad es lo mismo que: $$ \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} x_1 & x_2 & x_3 \\ y_1 & y_2 & y_3 \\ z_1 & z_2 & z_3 \end{pmatrix} \cdot  \begin{pmatrix} a \\ b \\ c \end{pmatrix}$$que es la forma matricial de escribir el sistema: $$\begin{cases} 0 & = x_1 a + x_2 b + x_3 c \\ 0 & = y_1 a + y_2 b + y_3 c \\ 0 & = z_1 a + z_2 b + z_3 c \end{cases} $$


Vamos a plantear un sistema de $3$ ecuaciones en $3$ variables: $$\begin{cases} m & = ax + by + cz \\ n & = dx + fy + gz \\ l & = hx + jy + kz \end{cases} $$Su expresión matricial es: $$ \begin{pmatrix} m \\ n \\ l \end{pmatrix} = \begin{pmatrix} a & b & c \\ d & f & g \\ h & j & k \end{pmatrix} \cdot  \begin{pmatrix} x \\ y \\ z \end{pmatrix} $$Si consiguiésemos encontrar una matriz inversa respecto del producto para la matriz de coeficientes del sistema, podríamos multiplicar por la izquierda en ambos lados de la igualdad para despejar $x,y,z$ directamente: $$ \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} a & b & c \\ d & f & g \\ h & j & k \end{pmatrix}^{-1} \cdot  \begin{pmatrix} m \\ n \\ l \end{pmatrix} $$


También podremos interpretar, dados dos espacios vectoriales con ciertas bases, una matriz como un determinado tipo de aplicación entre ambos espacios que transforma vectores de uno en vectores de otro. Veremos más ejemplos sobre esto más adelante. Por último es interesante la aplicación que tienen las matrices en el análisis. Una matriz puede entenderse también como una "linealización" local de una función (si esta la admite). También podemos utilizar matrices para determinar si ciertas funciones serán invertibles o no. Para entender mejor todo esto es conveniente centrarse en un contexto y darle significado a las matrices en él. Por último, conviene señalar que en ocasiones simplemente se consideran una alternativa notacional que nos hace la vida más cómoda.

Comentarios

Frecuentes

Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

El Teorema del Sándwich

Aplicaciones y Cardinales