Las Matrices
En este post vamos a hablar de las matrices. También hablaremos de la
estructura de los espacios de matrices, de manera que llegados a ese punto del
post quizá convenga echarle un vistazo a los otros tres posts sobre espacios
vectoriales:
Espacios Vectoriales,
Sistemas Libres y Generadores
y
Base, Dimensión y Estructura de un Espacio Vectorial si es que el lector aún no los conoce.
LAS MATRICES
Normalmente aparecen por primera vez en la asignatura de matemáticas de
segundo de bachillerato. No suele explicarse bien lo que son y al nivel al que
se dan las matemáticas en bachillerato tampoco se les puede dar una
interpretación intuitiva o significativa de manera que el alumno se haga una
idea clara. Parece que cuando se nos presentan son simplemente unos "bloques"
de números que amenazan con llevarse por delante la asignatura. Lo cierto es
que las matrices tienen muchísimos usos en matemáticas: pueden representar
ciertos tipos de aplicaciones, pueden formar estructuras algebraicas
interesantes e incluso aparecen en el cálculo de las derivadas de funciones de
varias variables. Por esta razón lo más lógico es decir que una matriz es una
disposición bidimensional de cosas. No podemos restringir esas cosas a números
porque podríamos pensar en una matriz de funciones, y también podemos meter,
como entradas en una matriz, los elementos de un cuerpo, por ejemplo.
Con la ilusión de tener algo a lo que poder llamar matriz y sin complicarnos
la vida demasiado pero de manera que nos permita toda la variabilidad de la
que las matrices disponen, vamos a definir una matriz de la siguiente manera:
$\text{Def.}$ Una matriz es una disposición rectangular de objetos matemáticos
para los cuales hay definida alguna operación.
A la parte de que hay definida una operación llegaremos más tarde pero la
motivación es que no vamos a necesitar matrices (o al menos no vamos a
necesitar darles un nombre y definirlas) si no podemos hacer nada con ellas.
Lo que vamos a hacer ahora es darle un sentido a las matrices con coeficientes
(entradas) en un cuerpo $K$ como si de un conjunto cualquiera se tratase. Es
decir, vamos a tratar a las matrices como un objeto más, sin darle significado
(por ahora). Al final del post (y en nuevos posts en los que volverán a
aparecer) se explicarán algunos de los significados que tienen las matrices en
distintos contextos. Se entenderá mejor conforme vayamos viendo ejemplos...
espero.
MATRICES SOBRE UN CUERPO
Dado un cuerpo, $K,$ sobre el que tenemos definidas las operaciones suma $(+)$
y producto $( \cdot ) $ podemos considerar matrices cuyas entradas sean
elementos de $K.$ La dimensión de una matriz, o el tamaño de una matriz será
el par de números naturales, $m$ y $n,$ que nos indicará la cantidad de filas
y columnas (respectivamente) que tendrá la matriz. Si tiene infinitas filas o
infinitas columnas (o ambas) diremos que la matriz es infinita (aunque
probablemente no trataremos estos casos, al menos por ahora). Dicho esto,
podemos pensar en el conjunto de matrices de tamaño $m \times n$ con entradas
(o coeficientes) en $K:$ $$ \mathbb{M}_{m \times n} \left( K \right) =
\left\lbrace \begin{pmatrix} a_{1 \ 1} & a_{1 \ 2} & ... & a_{1 \
n} \\ a_{2 \ 1} & a_{2 \ 2} & ... & a_{2 \ n} \\ ... & ...
& ... & ... \\ a_{m \ 1} & a_{m \ 2} & ... & a_{m \
n} \end{pmatrix}: \ a_{i \ j} \in K, i=1,...,m ; \ j=1, ... , n
\right\rbrace$$Aprovechando que en $K$ tenemos definidas dos operaciones,
vamos a ver cómo (y bajo qué condiciones es posible) realizarlas en el espacio
de matrices. Vamos a llamar $\mathbb{M} \left( K \right)$ al conjunto de todas
las matrices con coeficientes en $K.$ Sin duda, se tiene $\mathbb{M}_{m \times
n} \left( K \right) \subset \mathbb{M} \left( K \right)$ para cualesquiera
$m,n \in \mathbb{N}.$ Además antes de estudiar las operaciones, vamos a
introducir algo de notación para poder entendernos mejor:
$\text{Not.}$ Dada $A$ una matriz, denotaremos $A=(a_{i \ j})_{i,j=1}^{m,n}$
en ocasiones para referirnos al contenido (o por ejemplo al nombre) de las
entradas de $A,$ de manera que $a_{i \ j}$ es la entrada que ocupa la posición
$(i,j)$ en la matriz $A.$ También denotaremos la fila $i-$ésima de la matriz
$A$ por $A_i$ y la columna $j-$ésima por $A^j.$
Suma
La "suma" de matrices se hereda de la suma de $K.$ Para sumar dos matrices
estas han de ser de la misma dimensión. Es decir, si $A$ es de dimensión $m
\times n$ y $B$ es de dimensión $l \times k,$ solo vamos a poder sumarlas si
$m=l$ y $n=k.$ Para sumarlas, se suman las entradas de las mismas posiciones:
si $A=(a_{i \ j})_{i,j=1}^{m,n}$ y $B=(b_{i \ j})_{i,j=1}^{m,n}$ entonces: $$
(A+B)_{i \ j} = a_{i \ j}+b_{i \ j}$$Veamos unos pocos ejemplos:
En $\mathbb{M}_{2 \times 2} \left( \mathbb{R} \right):$ $$ \begin{pmatrix} 1
& 2 \\ 2 & 3 \end{pmatrix} + \begin{pmatrix} 5 & 1 \\ 3
& 3 \end{pmatrix} = \begin{pmatrix} 6 & 3 \\ 5 & 6
\end{pmatrix}$$En $\mathbb{M}_{2 \times 3} \left( \mathbb{R} \right):$ $$
\begin{pmatrix} 1 & 0 & 0 \\ 1 & 1 & 0 \end{pmatrix} +
\begin{pmatrix} 2 & 2 & 1 \\ 1 & 3 & 2 \end{pmatrix} =
\begin{pmatrix} 3 & 2 & 1 \\ 2 & 4 & 2 \end{pmatrix}$$En
$\mathbb{M}_{3 \times 1} \left( \mathbb{C} \right):$ $$ \begin{pmatrix} i \\ 2
\\ 2+i \end{pmatrix} + \begin{pmatrix} 1 \\ 2i \\ 1-2i
\end{pmatrix} = \begin{pmatrix} 1+i \\ 2+2i \\ 3-i \end{pmatrix}$$
Producto
Para poder hacer el "producto" de dos matrices es necesario poder hacer el
producto de sus entradas, y por ello es necesario estar en un conjunto en el
que se permita esta segunda operación. Los cuerpos son por tanto un candidato
ideal sobre los cuales hacer matrices. Sin embargo también podríamos
considerar matrices sobre anillos, por ejemplo. Para multiplicar matrices es
necesario que el número de columnas de la primera matriz sea igual que el
número de filas de la segunda. Es decir, si queremos multiplicar las matrices
$A$ con $B,$ es necesario que $A$ tenga dimensión $m \times n$ y $B$ tenga
dimensión $n \times p,$ donde $m,n,p \in \mathbb{N}.$ De esto deducimos que el
producto no es conmutativo. De hecho, si $m \neq p$ ni siquiera tiene sentido
considerar el producto de $B$ con $A$ pues no es nada definido. Supongamos que
$A=(a_{i \ j})_{i,j=1}^{m,n}$ y $B=(b_{i \ j})_{i,j=1}^{n,p}.$ Entonces: $$ (A
\cdot B)_{i \ j} = \sum_{k=1}^{n} a_{i \ k} \cdot b_{k \ j}=a_{i \ 1}b_{1 \ j}
+ a_{i \ 2}b_{2 \ j}+ \ ... \ + a_{i \ n}b_{n \ j}.$$Veamos unos pocos
ejemplos:
En $\mathbb{M} \left( \mathbb{R} \right):$ $$ \begin{pmatrix} 1 & 0 \\ 0
& 1 \end{pmatrix} \cdot \begin{pmatrix} 2 & 3 \\ 3 & 4
\end{pmatrix} = \begin{pmatrix} 2 & 3 \\ 3 & 4 \end{pmatrix}$$ $$
\begin{pmatrix} 2 & 3 \\ 3 & 4 \end{pmatrix} \cdot \begin{pmatrix} 1
& 0 \\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 2 & 3 \\ 3 & 4
\end{pmatrix}$$ $$ \begin{pmatrix} 1 & 2 & 3 \\ 0 & 0 & 1
\end{pmatrix} \cdot \begin{pmatrix} 2 & 3 \\ 1 & 0 \\ 2 &
1 \end{pmatrix} = \begin{pmatrix} 10 & 6 \\ 2 & 1
\end{pmatrix}$$En $\mathbb{M}_{n \times n} \left( K \right)$ la matriz: $$ I_n
= \begin{pmatrix} 1_K & 0 & ... & 0 \\ 0 & 1_K & ... &
0 \\ ... & ... & ... & ... \\ 0 & 0 & ... & 1_K
\end{pmatrix} $$se llama matriz identidad y cumple que para toda matriz $A \in
\mathbb{M}_{n \times n} \left( K \right),$ se tiene $A \cdot I_n = I_n \cdot A
= A.$
ESPACIO DE MATRICES CUADRADAS
De especial interés es el conjunto de matrices sobre un cuerpo $K$ (esto es,
con entradas en $K$) y de dimensión $n \times n:$ $\mathbb{M}_{n \times n}
\left( K \right)=\mathbb{M}_{n} \left( K \right).$ Por todo lo que acabamos de
hablar, en $\mathbb{M}_{n } \left( K \right)$ podemos sumar y multiplicar
matrices, de manera que deberíamos comprobar qué propiedades tienen dichas dos
operaciones para ver si podemos determinar la estructura de $\mathbb{M}_{n}
\left( K \right).$ La suma de matrices cumple siempre las mismas propiedades
que la suma en $K,$ de manera que $\mathbb{M}_{n} \left( K \right)$ es un
grupo (abeliano, e.d. conmutativo) con respecto a la suma. Esto es porque para
sumar matrices se suman sus entradas de la misma manera que se suman elementos
del cuerpo $K.$ El producto es un poco más complicado. Si bien es asociativo,
distributivo con respecto de la suma y tiene elemento neutro (la matriz
identidad), no es necesariamente conmutativo y no toda matriz tiene elemento
inverso con respecto al producto.
Este conjunto (con estructura de anillo) puede dotarse de la estructura de
espacio vectorial sobre el cuerpo $K,$ ya que es un grupo abeliano y podemos
definir la operación de producto por un escalar como la matriz en la que cada
entrada es el resultado del producto entre el elemento de la matriz original
que ocupa dicha entrada y el escalar. Es decir, el producto de un escalar por
una matriz se calcula haciendo el producto de cada una de las entradas de la
matriz por el escalar. En los siguientes posts trabajaremos un poco más con el
espacio de matrices cuadradas de dimensión $n.$
SIGNIFICADO
Comúnmente veremos las matrices como formas de organizar vectores. Para
nosotros cada columna de una matriz será un vector (por ejemplo de
$\mathbb{R}^n$), y expresaremos: $$ (x_1, \ ... \ , x_n) = \begin{pmatrix} x_1
\\ ... \\ x_n \end{pmatrix}$$a menudo para denotar vectores. Veamos un par de
ejemplos:
En $\mathbb{R}^3$ tenemos $3$ vectores: $ (x_1,y_1,z_1), \
(x_2,y_2,z_2), \ (x_3,y_3,z_3) $ y queremos ver si son linealmente
independientes. Planteamos la ecuación en forma matricial: $$ \begin{pmatrix}
0 \\ 0 \\ 0 \end{pmatrix} = a \begin{pmatrix} x_1 \\ y_1 \\ z_1 \end{pmatrix}
+ b \begin{pmatrix} x_2 \\ y_2 \\ z_2 \end{pmatrix} + c \begin{pmatrix} x_3 \\
y_3 \\ z_3 \end{pmatrix}$$Es fácil comprobar que la igualdad es lo mismo que:
$$ \begin{pmatrix} 0 \\ 0 \\ 0 \end{pmatrix} = \begin{pmatrix} x_1 & x_2
& x_3 \\ y_1 & y_2 & y_3 \\ z_1 & z_2 & z_3 \end{pmatrix}
\cdot \begin{pmatrix} a \\ b \\ c \end{pmatrix}$$que es la forma
matricial de escribir el sistema: $$\begin{cases} 0 & = x_1 a + x_2 b +
x_3 c \\ 0 & = y_1 a + y_2 b + y_3 c \\ 0 & = z_1 a + z_2 b + z_3 c
\end{cases} $$
Vamos a plantear un sistema de $3$ ecuaciones en $3$ variables:
$$\begin{cases} m & = ax + by + cz \\ n & = dx + fy + gz \\ l & =
hx + jy + kz \end{cases} $$Su expresión matricial es: $$ \begin{pmatrix} m \\
n \\ l \end{pmatrix} = \begin{pmatrix} a & b & c \\ d & f & g
\\ h & j & k \end{pmatrix} \cdot \begin{pmatrix} x \\ y \\ z
\end{pmatrix} $$Si consiguiésemos encontrar una matriz inversa respecto del
producto para la matriz de coeficientes del sistema, podríamos multiplicar por
la izquierda en ambos lados de la igualdad para despejar $x,y,z$ directamente:
$$ \begin{pmatrix} x \\ y \\ z \end{pmatrix} = \begin{pmatrix} a & b &
c \\ d & f & g \\ h & j & k \end{pmatrix}^{-1} \cdot
\begin{pmatrix} m \\ n \\ l \end{pmatrix} $$
También podremos interpretar, dados dos espacios vectoriales con ciertas
bases, una matriz como un determinado tipo de aplicación entre ambos espacios
que transforma vectores de uno en vectores de otro. Veremos más ejemplos sobre
esto más adelante. Por último es interesante la aplicación que tienen las
matrices en el análisis. Una matriz puede entenderse también como una
"linealización" local de una función (si esta la admite). También podemos
utilizar matrices para determinar si ciertas funciones serán invertibles o no.
Para entender mejor todo esto es conveniente centrarse en un contexto y darle
significado a las matrices en él. Por último, conviene señalar que en
ocasiones simplemente se consideran una alternativa notacional que nos hace la
vida más cómoda.
Comentarios
Publicar un comentario