Sistemas Libres y Generadores

GENERADORES

Vamos a continuar hablando de espacios vectoriales, de manera que si no lo has hecho, igual te interesa echarle un vistazo al post anterior.

Vamos a considerar $E$ un $K-$espacio vectorial. Si recordamos un poco en qué consistía un espacio vectorial, podemos pensar que es un conjunto, $E,$ donde se permiten la suma y la multiplicación por escalares (elementos de $K$). Denotaremos con letras griegas a los escalares y con letras latinas a los vectores, como venimos haciendo hasta ahora. Con esto es razonable pensar cómo se comporta un vector (un elemento de $E$) cuando lo multiplicamos por un escalar (un elemento de $K$). Sabemos que el resultado de esa operación es otro vector de $E,$ así que podríamos considerar el conjunto de vectores que resultan del producto del vector por todos los escalares de $K:$ $F_v=\left\lbrace \lambda v: \lambda \in K \right\rbrace$ dado cierto $v \in E.$ Cada $v$ tiene un conjunto así, y si $v_1=v_2$ entonces $F_{v_1}=F_{v_2}$, de manera que este conjunto que acabamos de definir es particular para cada vector del espacio. Además, no es difícil mostrar que es un sub-espacio vectorial.

Veamos que $F_v$ es un sub-espacio vectorial de $E.$
  1. Si $u,w \in F_v$ entonces $u= \lambda v$ y $w= \mu v$ con $\lambda, \mu \in K.$ Entonces $u+w= (\lambda + \mu) v$ y como $\lambda + \mu \in K,$ se tiene $u+w \in F_v.$

  2. Si $u \in F_v$ entonces $u= \lambda v$ con $\lambda \in K$ y por tanto $\mu u = (\mu \lambda) v$ y como $\mu \lambda \in K$ se tiene que $ \mu u \in F_v.$
Por tanto $F_v$ es un sub-espacio vectorial de $E.$


Es decir, cada vector $v \in E$ "genera" el sub-espacio $F_v$ de manera natural, sin hacer ningún esfuerzo. Vamos a ver algunos ejemplos de estos sub-espacios en espacios vectoriales que conocemos.

Ya vimos en el post anterior que $\mathbb{R}$ es un espacio vectorial (el grupo abeliano es $E=\mathbb{R}$ con la suma y el cuerpo es $K=\mathbb{R}$ con la suma y el producto). Vamos a considerar un vector (en este caso un número real) cualquiera, distinto de $0_E (=0),$ pongamos $v \in \mathbb{R}$ (por ejemplo podríamos pensar en $v=1,$ pero para el razonamiento que vamos a hacer ahora da igual quién sea $v$ mientras que sea distinto de $0$).

En este caso $F_v=\left\lbrace \lambda v : \lambda \in \mathbb{R} \right\rbrace=\mathbb{R}.$ Aquí $F_v$ es todo el espacio vectorial (siempre que $v$ sea distinto de $0$). Si $v=0$ entonces $F_v=\left\lbrace 0 \right\rbrace.$


Retomamos el ejemplo del post anterior de $\mathbb{R}^2$ como espacio vectorial (sobre el cuerpo $\mathbb{R}$). Ahora vamos a considerar el vector $v=(1,1).$ $$F_v=\left\lbrace (\lambda,\lambda): \lambda \in \mathbb{R} \right\rbrace.$$Podemos representar $F_v$ en el plano de manera visual fácilmente.


$F_v$ es la recta "diagonal", la de vector director $(1,1)$ en el plano. En general, si $v=(v_1,v_2),$ el espacio $F_v$ es la recta de vector director $v$ en el plano (visto como un espacio vectorial). Además, si $v_1 = v_2,$ es fácil comprobar que $F_v$ también es la recta "diagonal". Esto nos indica que no es necesario $v=u$ para tener $F_v=F_u,$ como veremos más adelante.


Ahora supongamos que en vez de un solo vector tenemos dos: $u,v.$ Nos planteamos si entre los dos generan un sub-espacio. Sin duda, de hacerlo tendría que admitir la suma de sus elementos y el producto por escalares, de manera que $\lambda u + \mu v$ tendría que estar en este sub-espacio, siendo $\lambda, \mu \in K$ cualesquiera. Si definimos $F_{u,v}=\left\lbrace \lambda u + \mu v : \lambda, \mu \in K \right\rbrace$ dados $u,v \in E$ resulta muy fácil de probar que $F_{u,v}$ es un sub-espacio vectorial de $E.$

La demostración en este caso sigue los mismos dos pasos que en el anterior (estos son comprobar que $F_{u,v}$ cumple las condiciones necesarias para ser un sub-espacio vectorial).
  1. Sean $x,y \in F_{u,v}.$ Tenemos $x= \lambda_1 u + \mu_1 v,$ e $y=\lambda_2 u + \mu_2 v.$ Entonces $x+y= (\lambda_1 + \lambda_2)u + (\mu_1 + \mu_2)v$ y por tanto $x+y \in F_{u,v}.$

  2. Por otro lado, si $w \in F_{u,v}$ entonces $w= \lambda u + \mu v$ y por tanto $\nu w = (\nu \lambda) u + (\nu \mu) v \in F_{u,v},$ luego $\nu w \in F_{u,v}.$
Se tiene, por tanto, que $F_{u,v}$ es un sub-espacio vectorial de $E.$


Sin embargo debemos ser un poco cuidadosos en este caso. Puede ocurrir que $v \in F_u,$ es decir, $v= \nu u$ para cierto $\nu \in K,$ esto es, puede ocurrir que $v$ esté generado por $u.$ En este caso, veamos qué pinta tiene $F_{u,v}:$ $$ F_{u,v}= \left\lbrace \lambda u + \mu v : \lambda, \mu \in K \right \rbrace = \left\lbrace (\lambda  + \mu \nu) u : \lambda, \mu \in K \right \rbrace $$y como $\lambda + \mu \nu$ recorre todo $K$ (basta tomar $\mu = 0$ para asegurarse), se llega a que en este caso $F_{u,v}=F_u.$ Esto nos indica que entre los vectores de un espacio vectorial puede haber algún tipo de relación de dependencia. Si observásemos lo que ocurre cuando tomamos $3$ vectores llegaríamos a un resultado similar siempre que uno de los tres "dependiese" de los otros dos (o que dos lo hiciesen del otro restante). En general podemos considerar $n$ vectores, y podríamos tratar de precisar lo que estamos observando.
$\text{Def.}$ (Combinación Lineal)
Sean $E$ un $K-$espacio vectorial, $v_1, v_2, \ ... \ , v_n \in E$ vectores y $\lambda_1, \lambda_2, \ ... \ , \lambda_n \in K$ escalares. La expresión: $$ \lambda_1 v_1 + \lambda_2 v_2 + \ ... \ + \lambda_n v_n $$es una combinación lineal de los vectores $v_1, \ ... \ , v_n$ con los escalares $\lambda_1 , \ ... \ , \lambda_n.$
$\text{Def.}$ (Espacio Generado)
Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1, \ ... \ , v_n \right\rbrace$ un conjunto de vectores, $S \subset E.$ Se define el espacio generado por $S, \ \langle S \rangle$ o también denotado $\langle v_1, \ ... \ , v_n \rangle$ como: $$ \langle S \rangle = \left\lbrace \lambda_1 v_1 + \ ... \ , \lambda_n v_n : \ \lambda_i \in K, \ i=1, ..., n \right\rbrace.$$
Lo que habíamos estado estudiando antes, $F_v,$ ahora vemos que es simplemente $\langle v \rangle,$ el sub-espacio generado por $v,$ y $F_{u,v}=\langle u,v \rangle,$ el sub-espacio generado por $u$ y $v.$ Vamos a ver que el espacio generado por una colección de vectores es un sub-espacio vectorial.
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1, \ ... \ , v_n \right\rbrace \subset E$ un conjunto de vectores de $E.$ El conjunto $\langle S \rangle$ es un sub-espacio vectorial de $E.$

Sean $u,w \in \langle S \rangle,$ entonces: $$\begin{align*} u &= \lambda_1 v_1 + \ ... \  \lambda_n v_n \\ w &= \mu_1 v_1 + \ ... \ + \mu v_n \end{align*}$$donde $\lambda_i , \mu_i \in K$ para todo $i=1, ...,n.$
  1. $u+w=(\lambda_1 + \mu_1) v_1 + \ ... \ + (\lambda_n + \mu_n) v_n \in \langle S \rangle.$

  2. $\nu u = (\nu \lambda_1) v_1 + \ ... \ + (\nu \lambda_n) v_n \in \langle S \rangle.$
Por tanto $\langle S \rangle$ es un sub-espacio vectorial de $E.$

Veamos algunos ejemplos de espacios generados por vectores.

En el ejemplo anterior donde $E=\mathbb{R}^2,$ el vector $v=(1,1)$ es un generador del conjunto $F_v,$ que es un sub-espacio vectorial. Cualquier otro vector de la forma $v=(\lambda, \lambda)$ donde $\lambda \in K$ es distinto de $0_K (=0)$ es un generador de $F_v,$ la recta diagonal.


Si en el espacio $E$ de sucesiones reales con límite $0$ cuando $n \to \infty$ que vimos en el post anterior consideramos el conjunto: $$F=\left\lbrace \lbrace a_n \rbrace \in E: \ a_1 \in \mathbb{R} , a_i=0; \ i=2,3,... \right\rbrace$$entonces la sucesión $b_n=(1,0,0,0,...)$ genera $F,$ es decir: $F=\langle b_n \rangle.$


SISTEMAS LIBRES

Vamos a empezar dando una noción más rigurosa motivada por los ejemplos que hemos visto antes de lo que es que un vector esté generado por otro. El concepto que explica de manera clara este comportamiento es el de independencia lineal.
$\text{Def.}$ (Independencia Lineal)
Sea $E$ un $K-$espacio vectorial y $v_1, \ ... \ , v_n$ vectores de $E.$ Decimos que son linealmente independientes (o que la colección $v_1 , \ ... \ , v_n$ es linealmente independiente) si la ecuación: $$ 0_E = \lambda_1 v_1 + \ ... \ + \lambda_n v_n$$tiene como solución única $\lambda_1 = \ ... \ = \lambda_n = 0_K.$

Además, si $v \in E,$ decimos que $v$ es linealmente independiente de $v_1, \ ... \ , v_n$ si no existen escalares $\mu_1, \ ... \ , \mu_n \in K$ tales que $v=\mu_1 v_1 + \ ... \ + \mu_n v_n,$ e.d., si $v$ no puede expresarse como combinación lineal de $v_1, \ ... \ , v_n.$ Por contra, si existiesen tales escalares, diríamos que $v$ es linealmente dependiente de $v_1, \ ... \ v_n$ y podríamos expresarlo como combinación lineal de $v_1, \ ... \ , v_n.$
$\text{Obs.}$ Los vectores $v_1, \ ... \ , v_n$ son linealmente independientes si y sólo si cada $v_i$ es independiente del resto de $v_j$ (para $j \neq i$).

Vamos a empezar con la implicación de izquierda a derecha, y vamos a demostrarla por reducción al absurdo. Supongamos que $v_i$ fuese combinación lineal de los $v_j$ con $j \neq i:$ $$v_i = \lambda_1 v_1 + \ ... \ +\lambda_{i-1}v_{i-1} + \lambda_{i+1}v_{i+1} + \ ... \ +\lambda_n v_n $$donde no todos los $\lambda_j$ son $0.$ Entonces: $$ 0_E = \lambda_1 v_1 + \ ... \ +\lambda_{i-1}v_{i-1} - v_i + \lambda_{i+1}v_{i+1} + \ ... \ +\lambda_n v_n.$$ Sin embargo sabemos que, al ser $v_1, \ ... \ , v_n$ linealmente independientes, la ecuación a la que acabamos de llegar tiene solución única y es la solución trivial. Sin embargo hemos dicho que no todos los $\lambda_j$ son $0_K$ y de hecho el coeficiente de $v_i$ es $-(1_K),$ de manera que llegamos a una contradicción y por tanto $v_i$ ha de ser linealmente independiente del resto de $v_j.$

Ahora vamos con la implicación contraria. Supongamos que la ecuación $$ 0_E=\mu_1 v_1 + \ ... \ + \mu_n v_n $$ no admite solución única (e.d. hay una solución distinta de la solución trivial). Entonces existen $\lambda_1, \ ... \ , \lambda_n \in K$ no todos nulos tales que: $$ 0_E = \lambda_1 v_1 + \ ... \ + \lambda_n v_n.$$ Al ser no todos nulos, pongamos $\lambda_l \neq 0_K.$ Entonces podemos restar $\lambda_l v_n$ a ambos lados y dividir por $\lambda_l:$ $$ v_l = \frac{\lambda_1}{\lambda_l} v_1 + \ ... \ + \frac{\lambda_n}{\lambda_l}v_n.$$ Sin embargo. al ser $v_i$ es linealmente independiente de $v_j$ para cada $i=1,2,...,n$ y $j \neq i,$ en particular lo tenemos para $i=l$ y por tanto acabamos de llegar a una contradicción, y la ecuación solo puede admitir la solución trivial.

Antes hemos visto, para el caso $n=2,$ y hemos mencionado para el caso $n=3,$ que si tenemos un conjunto de vectores $\left\lbrace v_1, v_2, \ ... \ , v_n \right\rbrace$ y $v_n$ es combinación lineal del resto entonces $\langle v_1, \ ... \ ,v_{n-1}, v_n \rangle = \langle v_1, \ ... \ , v_{n-1} \rangle.$ Esto nos lleva a diferenciar los conjuntos de vectores en los que todos son linealmente independientes de los que no.
$\text{Def.}$ (Sistema Libre)
Sea $E$ un $K-$espacio vectorial. Decimos que $S=\left\lbrace v_1, \ ... \ , v_n \right\rbrace \subset E$ es un sistema libre si $v_1, \ ... \ , v_n$ son linealmente independientes.
De esta definición y de la de independencia lineal se deduce casi inmediatamente la siguiente proposición:
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial. El sistema $\left\lbrace v_1, \ ... \ ,v_n \right\rbrace$ es libre si y sólo si la ecuación $$ 0_E = \lambda_1 v_1 + \ ... \ + \lambda_n v_n $$admite solución única.

La implicación de izquierda a derecha es fácil de comprobar. Al ser un sistema libre, los vectores $v_1, \ ... \ , v_n$ son linealmente independientes, y por definición: $$ 0_E = \lambda_1 v_1 + \ ... \ + \lambda_n v_n $$admite solución única: $\lambda_i=0_K$ para todo $i=1,2,...,n.$

La implicación contraria también es fácil: al admitir solución única el sistema, esta ha de ser la solución trivial: $\lambda_i=0_K$ para todo $i=1,2,...,n.$ Por tanto, la colección de los $v_i$ ha de ser linealmente independiente y por tanto el sistema es libre.

Es razonable pensar que si tenemos un sistema libre y le añadimos un vector que es linealmente independiente del resto, el conjunto nuevo que resulta es también un sistema libre. De igual manera ocurre cuando a un sistema libre le quitamos un vector. Al ser el resto linealmente independientes (pues el sistema es libre), el conjunto nuevo será un sistema libre.
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1, \ ... \ , v_n \right\rbrace \subset E$ un sistema libre.
  1. Si $v\in E$ es linealmente independiente de $v_1, \ ... \ , v_n$ entonces el sistema $S'=\left\lbrace v_1, \ ... \ , v_n, v \right\rbrace$ es libre.

  2. Si $i \in \lbrace 1,2, ... , n \rbrace$ el sistema $S^{*}=\left\lbrace v_1, \ ... \ , v_{i-1},v_{i+1}, \ ... \ , v_n \right\rbrace$ es libre.

  1. Para esta primera parte basta utilizar la observación que hemos hecho (y demostrado) antes. Al ser $v$ independiente de $v_1, \ ... \ , v_n,$ el sistema $S'$ está formado por vectores linealmente independientes, y por tanto es libre.

  2. Para esta segunda parte podemos ver que si $S^{*}$ no fuese libre (e.d. si $v_1, \ ... \ , v_{i-1},v_{i+1}, \ ... \ , v_n$ no fuesen linealmente independientes) entonces $S$ no sería un sistema libre. Si $S^{*}$ no fuese libre, existirían $\lambda_1, \ ... \ , \lambda_{i-1},\lambda_{i+1}, \ ... \ \lambda_n \in K$ no todos nulos tales que: $$ 0_E = \lambda_1 v_1 + \ ... \ + \lambda_{i-1} v_{i-1} + \lambda_{i+1} v_{i+1} + \ ... \ + \lambda_n v_n$$y sumando $\lambda_i v_i$ a ambos lados de la ecuación, siendo $\lambda_i = 0$ se tendría: $$ 0_E = \lambda_1 v_1 + \ ... \ + \lambda_{i-1}v_{i-1} + \lambda_i v_i  + \lambda_{i+1} v_{i+1} + \ ... \ + \lambda_n v_n$$con alguno de los $\lambda_j$ no nulo, y por tanto $S$ no sería un sistema libre.

Los sistemas libres son una gran pista de la estructura que hay detrás de los espacios vectoriales y por esa razón son de vital importancia. En el próximo post veremos lo que son las bases y cómo todo espacio vectorial tiene una base, una colección de vectores a partir de los cuales podremos construir el resto.

Comentarios

Frecuentes

Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

El Teorema del Sándwich

Aplicaciones y Cardinales