Para entender sobre qué va este post vas a necesitar saber lo que son los
espacios vectoriales, sus bases, las aplicaciones lineales, el cambio de base
y las matrices con entradas sobre un cuerpo. Lo que vamos a ver hoy es cómo
toda aplicación lineal entre espacios vectoriales tiene asociada una matriz
según las bases de dichos espacios, de manera que vamos a poder tratar a las
aplicaciones lineales y a las matrices de manera muy parecida.
APLICACIONES LINEALES Y MATRICES
Vamos a suponer que $E$ y $V$ son dos $K-$espacios vectoriales, de dimensiones
$n$ y $m$ respectivamente, y $T:E \longrightarrow V$ es una aplicación lineal
entre ambos espacios. Podemos establecer que $\mathcal{B}_E$ y $\mathcal{B}_V$
sean bases de $E$ y $V$ respectivamente, formadas por los vectores:
$$\begin{align*} \mathcal{B}_E &= \left\lbrace e_1, \ ... \ , e_n
\right\rbrace \\ \mathcal{B}_V &= \left\lbrace v_1, \ ... \ , v_m
\right\rbrace . \end{align*}$$La imagen de un vector cualquiera de la base
$\mathcal{B}_E$ es un vector de $V$ y por tanto puede ser expresado como
combinación lineal de los vectores de $\mathcal{B}_V.$ Se tiene:
$$\begin{align*} T(e_1) &=\lambda_{11}v_1 + \ ... \ + \lambda_{m1}v_m \\
&.. \\ &.. \\ T(e_n) &=\lambda_{1n}v_1 + \ ... \ + \lambda_{mn}v_m
\end{align*}$$y si $e \in E$ es un vector cualquiera de $E:$ $$e=\mu_1 e_1 + \
... \ + \mu_n e_n $$entonces $$ T(e)=\mu_1 T(e_1) + \ ... \ + \mu_n T(e_n)$$y
podemos sustituir las expresiones de $T(e_i)$ en función de los $v_j$ que
hemos hallado antes: $$\begin{align*} T(e) &= \mu_1 (\lambda_{11}v_1 + \
... \ + \lambda_{m1}v_m) + \ ... \ + \mu_n (\lambda_{1n}v_1 + \ ... \ +
\lambda_{mn}v_m) = \\ &= (\mu_1 \lambda_{11} + \ ... \ + \mu_n
\lambda_{1n}) v_1+ \ ... \ + (\mu_1 \lambda_{m1} + \ ... \ + \mu_n
\lambda_{mn})v_m = \\ &= \left(\sum_{i=1}^{n} \mu_i \lambda_{1i}\right)
v_1+ \ ... \ + \left(\sum_{i=1}^{n} \mu_i \lambda_{mi}\right) v_m .
\end{align*}$$Ahora pensémoslo en coordenadas: a la aplicación $T:E
\longrightarrow V$ hay asociada otra aplicación
$T_{\mathcal{B}_E,\mathcal{B}_V}:K^n \longrightarrow K^m$ que tiene
$T_{\mathcal{B}_E,\mathcal{B}_V} \left( [e]_{\mathcal{B}_E} \right)=\left[
T(e) \right]_{\mathcal{B}_V},$ es decir, lleva las coordenadas de $e$ en la
base $\mathcal{B}_E$ de $E$ a las coordenadas de $T(e)$ en la base
$\mathcal{B}_V$ de $V.$ Escribiendo esto en notación matricial se tiene: $$
T_{\mathcal{B}_E,\mathcal{B}_V} \left( \begin{pmatrix} \mu_1 \\ .. \\ .. \\
\mu_n \end{pmatrix} \right) = \begin{pmatrix} \sum_{i=1}^{n} \mu_i
\lambda_{1i} \\ .. \\ .. \\ \sum_{i=1}^{n} \mu_i
\lambda_{mi} \end{pmatrix} = \begin{pmatrix} \lambda_{11} & ... &
\lambda_{1n} \\ ... & ... & ... \\ \lambda_{m1} & ... &
\lambda_{mn} \end{pmatrix} \begin{pmatrix} \mu_1 \\ .. \\ .. \\ \mu_n
\end{pmatrix}$$de manera que toda aplicación lineal entre dos espacios
vectoriales con bases determinadas (como los que hemos planteado al principio
del desarrollo) tiene asociada una aplicación (lineal) entre $K^n$ y $K^m$ que
se representa mediante una matriz (dicha aplicación lleva un vector de $K^n$ a
otro de $K^m$ multiplicándolo por la izquierda por una matriz). En definitiva:
dadas bases de $E$ y $V,$ toda aplicación lineal tiene una matriz asociada a
esas bases. Por esta razón podemos trabajar con aplicaciones lineales en
coordenadas, lo cual es otra ventaja a favor de trabajar en espacios
vectoriales mediante coordenadas. Acabamos de demostrar el siguiente teorema:
$\text{Teorema.}$ Sean $E,V$ dos $K-$espacios vectoriales de dimensiones $n$ y
$m$ respectivamente con bases: $$\begin{align*} \mathcal{B}_E &=
\left\lbrace e_1, \ ... \ , e_n \right\rbrace \\ \mathcal{B}_V &=
\left\lbrace v_1, \ ... \ , v_m \right\rbrace \end{align*}$$y sea $T:E
\longrightarrow V$ una aplicación lineal para la que se tiene:
$$\begin{align*} T(e_1) &=\lambda_{11}v_1 + \ ... \ + \lambda_{m1}v_m \\
&.. \\ &.. \\ T(e_n) &=\lambda_{1n}v_1 + \ ... \ + \lambda_{mn}v_m
. \end{align*}$$Entonces: $$\left[ T(e) \right]_{\mathcal{B}_V} =
M_{\mathcal{B}_E,\mathcal{B}_V}(T) \cdot [e]_{\mathcal{B}_E}$$para todo
$e \in E$ y $M_{\mathcal{B}_E,\mathcal{B}_V}(T)$ es la matriz:
$$M_{\mathcal{B}_E,\mathcal{B}_V}(T) = \begin{pmatrix} \lambda_{11} & ...
& \lambda_{1n} \\ ... & ... & ... \\ \lambda_{m1} & ... &
\lambda_{mn} \end{pmatrix}$$
Merece la pena comentar que no hemos determinado cómo es la asignación de cada
aplicación lineal a su correspondiente matriz. Todavía no hemos dicho cómo
identificar si dos aplicaciones lineales son iguales. La idea es que dos
aplicaciones lineales son iguales (como aplicaciones) si las imágenes de cada
elemento son las mismas: $T(e)=L(e)$ para todo $e \in E.$
$\text{Def.}$ Sean $E,V$ dos $K-$espacios vectoriales y $T,L:E \longrightarrow
V$ dos aplicaciones lineales. Decimos que $T=L$ si $T(e)=L(e)$ para todo $e
\in E.$
Con este criterio se tiene que dos aplicaciones lineales son iguales si en las
mismas bases de $E$ y $V$ sus matrices son la misma. Para terminar esta
sección vamos a ver algunos ejemplos de cómo trabajar con una aplicación
lineal mediante su matriz asociada.
Consideramos los espacios vectoriales $\mathbb{R}^2$ y $\mathbb{R}^3$ y la
aplicación $T: \mathbb{R}^2 \longrightarrow \mathbb{R}^3$ dada por
$T(x,y)=(2x,x+y,2y-x).$ En las bases canónicas de $\mathbb{R}^2: \
\mathcal{B_{C,2}}$ y $\mathbb{R}^3: \ \mathcal{B_{C,3}}$ la aplicación
lleva: $$\begin{align*} T(1,0)_{\mathcal{B_{C,2}},\mathcal{B_{C,3}}} &=
(2,1,-1) \\ T(1,0)_{\mathcal{B_{C,2}},\mathcal{B_{C,3}}} &= (0,1,2)
\end{align*}$$de manera que la matriz de $T$ en las bases canónicas es:
$$\begin{pmatrix} 2 & 0 \\ 1 & 1 \\ -1 & 2 \end{pmatrix}$$ y la
imagen del vector $(x, y)$ por $T$ en las coordenadas de las base canónica
de $\mathbb{R}^3$ son: $$ \begin{pmatrix} 2 & 0 \\ 1 & 1 \\ -1 &
2 \end{pmatrix} \cdot \begin{pmatrix} x \\ y \end{pmatrix}= \begin{pmatrix}
2x \\ x+y \\ 2y-x \end{pmatrix}$$
La aplicación $T:\mathbb{M}_2 \left( \mathbb{R} \right) \longrightarrow
\mathbb{M}_2 \left( \mathbb{R} \right)$ con: $$T \left( \begin{pmatrix} a
& b \\ c & d \end{pmatrix} \right) = \begin{pmatrix} a+b &
2a \\ 2b & c+d \end{pmatrix}$$es una aplicación lineal. Vamos a considerar
la base: $$\begin{align*} \mathcal{B}_1 &= \left\lbrace \begin{pmatrix} 1
& 0 \\ 1 & 0 \end{pmatrix},\begin{pmatrix} 0 & 1 \\ 1 & 0
\end{pmatrix},\begin{pmatrix} 0 & 0 \\ 1 & 1
\end{pmatrix},\begin{pmatrix} 1 & 1 \\ 0 & 2 \end{pmatrix}
\right\rbrace . \end{align*}$$Planteamos los siguientes ejercicios:
Hallar la matriz de $T$ en la base $\mathcal{B}_1,$ e.d.
$M_{\mathcal{B}_1,\mathcal{B}_1}(T).$
Si existe, hallar la base $\mathcal{B}_2$ de $\mathbb{M}_2 \left(
\mathbb{R} \right)$ para la cual la matriz
$M_{\mathcal{B}_1,\mathcal{B}_2}(T)$ es igual a la matriz identidad
$I_{4}.$ Si no existe, razonar por qué.
En este caso si la matriz fuese la identidad entonces las imágenes de
los vectores de la base $\mathcal{B}_1$ tendrían coordenadas $(1,0,0,0),
(0,1,0,0), (0,0,1,0), (0,0,0,1)$ en la base $\mathcal{B}_2$ y por tanto
serían los vectores de esa base. Es decir, si $\mathcal{B}_1 = \lbrace
e_1, e_2, e_3, e_4 \rbrace$ y $\mathcal{B}_2 = \lbrace u_1, u_2, u_3,
u_4 \rbrace$ se tendría $T(e_i)=u_i$ para $i=1,2,3,4.$ Calculamos $u_i$
y vemos que si son linealmente independientes o no: $$ a \begin{pmatrix}
1 & 2 \\ 0 & 1 \end{pmatrix} + b \begin{pmatrix} 1 & 0
\\ 2 & 1 \end{pmatrix} + c \begin{pmatrix} 0 & 0 \\ 0 &
2 \end{pmatrix} + d \begin{pmatrix} 2 & 2 \\ 2 &
2 \end{pmatrix} = \begin{pmatrix} 0 & 0 \\ 0 & 0
\end{pmatrix}.$$Como la solución de este sistema no es única, estos no
son linealmente independientes. Por tanto no existe tal base
$\mathcal{B}_2$ (si existiera, los $u_i$ tendrían que ser
linealmente independientes pero no lo son).
NÚCLEO E IMAGEN MEDIANTE MATRICES
Según lo que hemos visto, las columnas de la matriz
$M_{\mathcal{B}_E,\mathcal{B}_V}(T)$ asociada a $T:E \longrightarrow V$ son
las coordenadas en la base $\mathcal{B}_V$ de las imágenes de los vectores de
la base $\mathcal{B}_E,$ y por tanto son las coordenadas de los generadores de
$\text{Im}(T).$ Esto quiere decir que podemos calcular el sub-espacio
$\text{Im}(T)$ a partir de la matriz de la aplicación (en coordenadas en la
base $\mathcal{B}_V).$ Por otro lado, como el vector $0_V$ se expresa en
coordenadas $(0_K,0_K, \ ... \ , 0_K)$ independientemente de la base, podemos
hallar el núcleo de $T$ en coordenadas en la base $\mathcal{B}_E$ si
resolvemos el sistema: $$ M_{\mathcal{B}_E,\mathcal{B}_V}(T) \cdot
[e]_{\mathcal{B}_E} = \begin{pmatrix} \lambda_{11} & ... &
\lambda_{1n} \\ ... & ... & ... \\ \lambda_{m1} & ... &
\lambda_{mn} \end{pmatrix} \begin{pmatrix} x_1 \\ .. \\ .. \\ x_n
\end{pmatrix} = \begin{pmatrix} 0_K \\ .. \\ .. \\ 0_K \end{pmatrix}$$para
hallar los posibles valores de $x_1, \ ... \ , x_n$ y por tanto así obtenemos
los generadores de $\text{Ker}(T)$ en la base $\mathcal{B}_E.$
Para la matriz del ejemplo 2, si $(x,y,z,t)$ son las coordenadas de una matriz
en $\mathcal{B}_1:$ $$\begin{align*} \text{Ker}(T) &= \left\lbrace
\begin{pmatrix} x \\ y \\ z \\ t \end{pmatrix} \in \mathbb{R}^4: \
\begin{pmatrix} 0 & 1 & -\frac{1}{2} & 1 \\ 1 & 0
& -\frac{1}{2} & 1 \\ -1 & 1 & 1 & 0 \\ 1 & 0 &
\frac{1}{2} & 1 \end{pmatrix} \begin{pmatrix} x \\ y \\ z \\ t
\end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \end{pmatrix}
\right\rbrace = \\ &= \left\lbrace (x,y,z,t) \in \mathbb{R}^4 :
\begin{cases} x=y=t \\ z=0 \end{cases} \right\rbrace \\ \\ \text{Im}(T)
&= \left\langle \begin{pmatrix} 0 \\ 1 \\ -1 \\ 1 \end{pmatrix},
\begin{pmatrix} 1 \\ 0 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} -\frac{1}{2}
\\ -\frac{1}{2} \\ 1 \\ \frac{1}{2} \end{pmatrix},\begin{pmatrix} 1 \\ 1
\\ 0 \\ 1 \end{pmatrix} \right\rangle \underset{(*)}{=} \left\langle
\begin{pmatrix} 1 \\ 0 \\ 1 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 1 \\ -1
\\ 1 \end{pmatrix}, \begin{pmatrix} 0 \\ 0 \\ 1 \\ 4 \end{pmatrix}
\right\rangle \end{align*}$$en coordenadas en la base $\mathcal{B}_1.$ En
el paso $(*)$ simplemente hemos obtenido una base del espacio generado. En
posts siguientes comentaremos cómo podemos hacer esto fácilmente.
APLICACIÓN INDUCIDA POR UNA MATRIZ
Si consideramos $K^n$ con la estructura de espacio vectorial, cada matriz $A
\in \mathbb{M}_{m \times n}(K)$ se puede interpretar como una aplicación
lineal entre $K^n$ y $K^m$ que lleva cada vector $u \in K^n$ al vector $v = A
u \in K^m.$ Esto se puede hacer en general para un par de espacios vectoriales
de dimensiones $n$ y $m$ cualesquiera, pero únicamente si previamente hemos
determinado las bases en las que estamos trabajando y en las que está la
matriz. Sin embargo en $K^n$ esto no es necesario pues podemos tratar los
vectores simplemente como elementos de $K^n$ sin relación a ningún par de
bases particulares (o si el lector lo prefiere, con relación a las bases
canónicas de ambos espacios, que para el caso es idéntico). En este contexto
(y de acuerdo a un par de ideas que ya hemos explorado en el apartado
anterior) podemos definir lo que es el rango de una matriz:
$\text{Def.}$ Sea $A \in \mathbb{M}_{m \times n} (K)$ una matriz de
coeficientes en el cuerpo $K.$ Se define el rango de $A$ como el número de
vectores columna de $A$ que son linealmente independientes.
$\text{Obs.}$ El rango de una matriz $A_{m \times n}$ es igual que la
dimensión del sub-espacio $\text{Im}(T),$ donde $T$ es la aplicación inducida
por $A,$ es decir, $T: K^n \longrightarrow K^m$ con $T(u)=Au.$ Esta es una
forma de calcular el rango de una matriz, pero más adelante veremos cómo
hacerlo mucho más fácilmente.
La aplicación identidad en $\mathbb{R}^3$ se puede representar mediante la
matriz $I_3.$ Por ser biyectiva, el rango de la matriz $I_3$ ha de ser $3.$ Es
fácil comprobarlo pues los vectores columna de $I_3$ son: $$ \begin{pmatrix} 1
\\ 0 \\ 0 \end{pmatrix}, \begin{pmatrix} 0 \\ 1 \\ 0 \end{pmatrix},
\begin{pmatrix} 0 \\ 0 \\ 1 \end{pmatrix} $$que sabemos que son
independientes. En general, el rango de $I_n$ es $n.$
Recapitulemos un poco antes de comenzar: hemos visto que todo espacio vectorial tiene una base , e.d. un conjunto de vectores linealmente independientes que lo generan. También hemos visto que podemos representar cada vector del espacio mediante sus coordenadas respecto de una base , y que estas pueden ser distintas en función de la base que tomemos. Habíamos dejado planteadas algunas cuestiones sin resolver, como cómo operar con coordenadas y cómo hacer el cambio de coordenadas en función de qué base tomemos. En el post de hoy vamos a resolver estas cuestiones, para lo cual hablaremos de las aplicaciones lineales y de la matriz de cambio de base. APLICACIONES LINEALES En matemáticas, una vez definida una estructura, lo normal es preguntarse cómo pueden ser las aplicaciones entre ese tipo de estructura. El ejemplo que conocemos por ahora es el de aplicaciones entre conjuntos . Las aplicaciones entre dos conjuntos que respetan la estructura de con...
En el anterior post vimos cómo resolver recurrencias lineales de la forma: $$\begin{align} a_n=B_1 a_{n-1} + \ ... \ + B_{k}a_{n-k}\end{align} $$con $B_j \in \mathbb{R}$ y $B_k \neq 0.$ Es decir, vimos cómo es posible dar una fórmula explícita para $a_n$ que únicamente dependa de $n.$ Estas son las llamadas recurrencias lineales homogéneas. En este post vamos a intentar generalizar y dar una solución explícita para recurrencias que tienen la forma: $$ \begin{align} a_n=B_1 a_{n-1} + \ ... \ + B_{k}a_{n-k} + f(n)\end{align} $$donde $f$ es una función de $\mathbb{N}$ a $\mathbb{R}$ no nula (el caso en el que $f \equiv 0$ es el caso homogéneo que hemos tratado en el anterior post). Estas últimas se conocen como recurrencias lineales no homogéneas. Además en ambos casos los coeficientes $B_j\in \mathbb{R}$ son constantes. Si fueran funciones que dependen de $n$ el tema se complicaría más y no vamos a tratar esos casos por ahora. Por los mismos motivos que en el post anterior, vamos a...
Vamos a introducir el concepto de lo que es una relación de equivalencia y después veremos lo que es una relación de orden. (La palabra $\text{Def}$ introducirá siempre una nueva definición y $\text{Obs}$ denotará una observación). El post de hoy es un poco más técnico, pero no es difícil de comprender, sobre todo si te animas a coger un papel y un lápiz y comprobar que lo que vamos a ir haciendo tiene sentido. Este tipo de herramientas son de las más básicas en matemáticas y por eso no conviene reducirlas a meros comentarios, puesto que entonces muchos desarrollos carecerían de sentido. Así que no te asustes, y pongámonos manos a la obra. RELACIONES DE EQUIVALENCIA $\text{Def.}$ Dado un conjunto , $X$, una relación de equivalencia, $R$, es una relación binaria en $X$ (relaciona un par de elementos de $X$, digamos $x$ e $y,$ y se lee $xRy:$ $x$ está relacionado con $y$), que cumple las siguientes tres propiedades: Reflexiva: todo elemento de $X$ está relacionado consigo m...
En el post anterior vimos lo que eran las sucesiones de números reales, los límites de estas y dejamos planteadas algunas preguntas que iremos respondiendo a lo largo de los siguientes posts. Lo que veremos hoy son varios resultados sobre sucesiones de números reales que pueden resultar interesantes e intuitivos y distintos ejemplos de cómo calcular límites de sucesiones utilizando estos resultados. PROPIEDADES DE LOS LÍMITES En el anterior post terminamos hablando de cómo los límites se comportan bien con las operaciones que conocemos en $\mathbb{R},$ pero no demostramos el resultado. Lo que haremos a continuación es investigar un poco una idea que nos va a ayudar a demostrarlo. Vamos a suponer que tenemos dos sucesiones. Una de ellas es constante: $\left\lbrace c_n \right\rbrace_{n=1} ^ \infty, \ \ c_n = c \ \ \forall n \in \mathbb{N}$ para cierto $0<c\in \mathbb{R}$ un número real fijo, y la otra sucesión converge a $0:$ $\left\lbrace a_n \right\rbrace_{n=1}^...
APLICACIONES Y FUNCIONES Si acabas de llegar al blog, esta entrada está muy relacionada con la anterior: conjuntos , de modo que leerla te ayudaría a comprender lo que vamos a discutir a continuación. En matemáticas, dados dos conjuntos (digamos $X$ e $Y$), una aplicación de $X$ en $Y$ es una regla que a cada elemento de $X$ le asigna un elemento de $Y$. Digamos que nuestra aplicación se llama $f$, entonces lo denotamos así: $f:X \longrightarrow Y$. La noción de aplicación es muy natural, y no es difícil pensar en ejemplos de aplicaciones: de hecho uno muy habitual es tomando $X=\left\lbrace \text{productos de un supermercado} \right\rbrace$ e $Y=\left\lbrace \text{precios de dichos productos en ese supermercado} \right\rbrace$. Definiendo la aplicación $f:X \longrightarrow Y$ que manda cada producto que puedes comprar en su precio, tenemos una aplicación. Por ejemplo, $f$ lleva una pera en su precio (en ese mercado). En general, si $x$ es un elemento de $X$, e $y$ es...
Comentarios
Publicar un comentario