Base, Estructura y Dimensión de un Espacio Vectorial

Para seguir este post es conveniente conocer los conceptos que hemos tratado en los dos posts anteriores sobre espacios vectoriales: Espacios Vectoriales, donde definimos lo que era un espacio vectorial, un sub-espacio vectorial y vimos algunos ejemplos; y Sistemas Libres y Generadores, donde vimos qué era un generador, el espacio generado por un conjunto de vectores, definimos el concepto de independencia lineal y vimos qué eran los sistemas libres. En particular los conceptos de espacio generado por un conjunto de vectores e independencia lineal van a ser clave a lo largo de este post.

EL MENOR SUB-ESPACIO

Vamos a comenzar respondiendo a una pregunta que puede resultar interesante. Dado $E$ un $K-$espacio vectorial y $v \in E$ un vector, ¿cuál es el menor sub-espacio $F\subset E$ que contiene a $v$? Para ser sub-espacio, $F$ debe contener al conjunto $\left\lbrace \lambda v : \lambda \in K \right\rbrace$ sin duda. Tal y como vimos ayer, ese conjunto es de hecho un sub-espacio y es precisamente $\langle v \rangle.$ La idea que surge ahora es precisamente que ha de ser $F=\langle v \rangle.$ Antes de intentar demostrarlo tenemos que decir qué es el "menor sub-espacio" que contiene a $v$. Podemos considerar todos los sub-espacios de $E$ que contienen a $v$ y, como hemos visto que la intersección de sub-espacios es un sub-espacio, definir $F$ como la intersección de todos esos sub-espacios que contienen a $v.$ Esto tiene todo el sentido del mundo: si $F$ es el menor sub-espacio que contiene a $v,$ estará contenido en todos los sub-espacios que contienen a $v,$ y por tanto estará en su intersección. Además, por ser el menor, es el "más restrictivo" y será quien determine la intersección. Por tanto definimos:
$\text{Def.}$ Sea $E$ un $K-$espacio vectorial y $v \in E$ un vector. Se define el menor sub-espacio vectorial que contiene a $v$ como: $$F^{v} = \bigcap_{F \in I} F$$donde $I=\left\lbrace F \subset E : \ F \text{ es sub-ev. de }E \text{ y } v \in F \right\rbrace.$
Ahora vamos a demostrar que realmente este sub-espacio es lo mismo que $\langle v \rangle.$
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y $v \in E$ un vector. Sea $F^{v}$ el menor sub-espacio vectorial de $E$ que contiene a $v.$ Entonces $F^{v}=\langle v \rangle.$

Para demostrar la igualdad entre ambos conjuntos vamos a demostrar las dos inclusiones.

$\subset )$ Sea $u \in F^v $ entonces $u \in \bigcap_{F \in I} F$ donde $I$ es el mismo que en la definición anterior. Por tener $v \in \langle v \rangle \subset E$ y como $\langle v \rangle$ es sub-espacio vectorial de $E,$ se tiene que $\langle v \rangle \in I$ y por tanto $u \in \langle v \rangle.$

$\supset )$ Sea $u \in \langle v \rangle.$ Entonces $u = \lambda v$ para algún $\lambda \in K.$ Además, por ser $F^v$ un sub-espacio vectorial y tener $v \in F^v,$ se tiene que $\lambda v \in F^v$ y por tanto $u \in F^v.$

Por tanto queda demostrado que $F^v = \langle v \rangle.$

Sin embargo el interés no termina aquí. Ya que hemos conseguido hacerlo para un vector, lo razonable sería planteárnoslo para cualquier colección (finita) de vectores. Vamos a adaptar la definición anterior a este caso y demostrar (una adaptación de) la proposición anterior también en este caso.
$\text{Def.}$ Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1, \ ... \ , v_n \right\rbrace \subset E$ un conjunto de vectores. Se define el menor sub-espacio vectorial que contiene a $S$ como: $$F^{S} = \bigcap_{F \in I} F$$donde $I=\left\lbrace F \subset E : \ F \text{ es sub-ev. de }E \text{ y } S \subset F \right\rbrace.$
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1, \ ... \ , v_n \right\rbrace \subset E$ un conjunto de vectores. Sea $F^{S}$ el menor sub-espacio vectorial de $E$ que contiene a $S.$ Entonces $F^{S}=\langle S \rangle.$

De nuevo vamos a tener que mostrar las dos inclusiones, de igual manera que en la proposición anterior.

$\subset )$ Sea $u \in F^S $ entonces $u \in \bigcap_{F \in I} F$ donde $I$ es el mismo que en la definición anterior. Por tener $S \subset \langle S \rangle \subset E$ y como $\langle S \rangle$ es sub-espacio vectorial de $E,$ se tiene que $\langle S \rangle \in I$ y por tanto $u \in \langle S \rangle.$

$\supset )$ Sea $u \in \langle S \rangle.$ Entonces $u = \lambda_1 v_1 + \ ... \ + \lambda_n v_n$ para ciertos $\lambda_i \in K$ donde $i=1,2,...,n.$ Además, por ser $F^S$ un sub-espacio vectorial y tener $v_1,...,v_n \in F^S,$ se tiene que $\lambda_1 v_1 + \ ... \ + \lambda_n v_n \in F^S$ y por tanto $u \in F^S.$

Queda demostrado que $F^S=\langle S \rangle$ y de hecho el esquema de la demostración es prácticamente igual que el de la anterior. Lo que esto nos quiere decir es que podemos hablar indistintamente del espacio generado por una colección (finita) de vectores y el mínimo sub-espacio que los contiene a todos. De hecho, podríamos haber definido $\langle S \rangle$ en términos de $F^S$ precisamente porque acabamos de demostrar que son lo mismo.


BASE DE UN ESPACIO VECTORIAL

Llegamos ahora al punto donde empezaremos a descubrir lo que es realmente un espacio vectorial. Hemos visto lo que es un sistema libre y el concepto de independencia lineal. Vamos a suponer que tenemos un espacio vectorial, $E,$ sobre un cuerpo, $K,$ y tenemos un conjunto de vectores: $S=\left\lbrace v_1, \ ... \ , v_n \right\rbrace.$ Ahora tomamos un nuevo vector: $v,$ que es linealmente dependiente de los vectores de $S,$ e.d. $v=\lambda_1 v_1 + \ ... \ + \lambda_n v_n.$ Ya hemos visto algún ejemplo en el post anterior donde nos dábamos cuenta de que el espacio generado por $S$ y el espacio generado por $S$ y $v$ eran el mismo, precisamente por ser $v$ linealmente dependiente de los vectores de $S.$ Vamos a ver que esto siempre es así y vamos a demostrarlo.
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1 , \ ... \ , v_n \right\rbrace$ un conjunto de vectores de $E.$ Sea $v= \lambda_1 v_1 + \ ... \ + \lambda_n v_n \in E$ un vector linealmente dependiente de $v_1, \ ... \ , v_n$ tal que $\lambda_i \in K$ (donde $i=1,2,...,n).$ Entonces $\langle v_1, \ ... \ , v_n \rangle = \langle v_1, \ ... \ , v_n, v \rangle.$

Vamos a demostrar las dos inclusiones:

$\subset )$ Sea $u \in \langle S \rangle = \langle v_1, \ ... \ , v_n \rangle.$ Entonces existen $\mu_1, \ ... \ , \mu_n \in K$ tales que $u= \mu_1 v_1 + \ ... \ + \mu_n v_n + 0_K v.$ Así, $u$ es combinación lineal de $v_1, \ ... \ , v_n , v$ y por tanto $u \in \langle v_1, \ ... \ , v_n, v \rangle.$

$\supset )$ Sea $u \in \langle v_1, \ ... \ , v_n, v \rangle.$ Entonces $u = \mu_1 v_1 + \ ... \ + \mu_n v_n + \mu v$ pero como $v$ es como en el enunciado: $$u=(\mu_1 + \mu \lambda_1) v_1 + \ ... \ + (\mu_n + \mu \lambda_n) v_n$$y por tanto $u \in \langle v_1, \ ... \ , v_n \rangle.$

Lo que esto nos muestra es que para aumentar el espacio generado por una colección de vectores hace falta añadirle uno que sea linealmente independiente a ellos. Por otro lado también nos enseña que si en una colección de vectores hay unos pocos que son linealmente dependientes del resto, estos pocos pueden ser retirados y el espacio generado seguirá siendo el mismo. Vamos a ver un ejemplo.

Si consideramos el conjunto $S=\left\lbrace (0,1),(0,2),(0,3),(0,13) \right\rbrace$ de vectores en $\mathbb{R}^2,$ no es difícil ver que $S$ no es linealmente independiente. $\langle S \rangle = \langle (0,1) \rangle.$ Podemos reducir por tanto $S$ a $S'=\lbrace (0,1) \rbrace$ y que el espacio generado por ambos siga siendo el mismo. Para aumentar el espacio generado, añadimos un vector que sea linealmente independiente de $(0,1),$ por ejemplo $(1,1).$ El sistema $S''=\left\lbrace (0,1), (1,1) \right\rbrace$ es independiente y de hecho genera todo $\mathbb{R}^2.$


Planteémonos ahora que tenemos un sub-espacio vectorial de un espacio vectorial. Tomamos todos sus vectores y vamos eliminando aquellos que son linealmente dependientes de otros. Parece que al final nos quedaremos con una colección linealmente independiente que además genere el mismo sub-espacio. Esta es la idea detrás de lo que es la base de un espacio vectorial: un conjunto de vectores linealmente independientes (un sistema libre) que además genera todo el espacio.
$\text{Def.}$ (Base)
Sea $E$ un $K-$espacio vectorial. Una base de $E$ es un conjunto de vectores linealmente independientes que genera $E.$

$\text{Comentario.}$ Una base puede ser finita o infinita, dependerá del espacio. Por ahora nos interesarán solo los espacios con bases finitas.
Veamos algunos ejemplos de bases de espacios vectoriales:

El conjunto $$B_n=\left\lbrace (1,0,0,...,0),(0,1,0,...,0),(0,0,1,...,0),...,(0,0,0,...,1) \right\rbrace$$es base de $\mathbb{R}^n$ visto como espacio vectorial. Por ejemplo, en $\mathbb{R}^2,$ $B_2=\left\lbrace (1,0),(0,1) \right\rbrace$ es una base (aunque no es la única). Otra base de $\mathbb{R}^2$ es $\left\lbrace (1,1),(0,3) \right\rbrace,$ y otra distinta es $\left\lbrace (0,\frac{1}{2}),(\frac{1}{3},\frac{1}{10}) \right\rbrace.$ Para comprobar que realmente todos estos conjuntos son base basta con ver que los dos vectores de cada uno son linealmente independientes (para lo cual es necesario resolver un sistema de dos ecuaciones con dos incógnitas que tiene solución única) y ver que todo vector de $\mathbb{R}^2$ se puede expresar como combinación lineal de cada par, para lo cual también basta con resolver un sistema de dos ecuaciones con dos incógnitas.


El conjunto $\mathbb{R}_{\leq n} \left[ x \right]$ de los polinomios de grado menor o igual que $n$ con coeficientes reales en la variable $x$ es un $\mathbb{R}-$espacio vectorial, donde el producto de un escalar por un vector es el polinomio que resulta de multiplicar cada coeficiente por el escalar, la suma de polinomios es la suma de sus coeficientes y las operaciones en $\mathbb{R}$ son las habituales. Una base de este espacio vectorial es $B=\left\lbrace 1,x,x^2, \ ... \ , x^n \right\rbrace.$


Lo que hemos podido ver en estos ejemplos (especialmente con el primero) es que en cada espacio, el cardinal (el número de elementos) de una base cualquiera es siempre el mismo. Vamos a probar esto para espacios con bases finitas.
$\text{Teorema.}$ Sea $E$ un $K-$espacio vectorial y sea $B=\left\lbrace u_1, \ ... \ , u_n \right\rbrace$ una base de $E.$ Entonces cualquier otra base de $E$ tiene cardinal $n.$

Primero vamos a demostrar que si $E$ es un $K-$espacio vectorial con una base $B$ de cardinal $n$ entonces cualquier conjunto de $m>n$ vectores es linealmente dependiente. Esto vamos a verlo por inducción. Después utilizaremos esto para demostrar que todas las bases de un espacio vectorial tienen el mismo cardinal (caso finito).
  1. Inducción:

    Sea $E$ un $K-$espacio vectorial con una base $B=\lbrace e_1 \rbrace.$ Sea $S=\lbrace u_1, \ .. \ , u_m \rbrace$ un conjunto de $m>1$ vectores en $E.$ Entonces, por ser $B$ base, $u_1 = \lambda_1 e_1$ y $u_2 = \lambda_2 e_1$ con $\lambda_1, \lambda_2 \neq 0.$ Así: $u_2 = \frac{\lambda_2}{\lambda_1} u_1$ y por tanto no es un sistema linealmente independiente.

    Ahora supongamos que para todo espacio vectorial con base de cardinal $k \leq n$ se tiene que si $S$ es un conjunto de $m>k$ vectores, entonces es linealmente dependiente. Vamos a ver qué ocurre en el caso $k=n+1:$

    Considero $E$ un $K-$espacio vectorial con una base $B=\left\lbrace e_1, \ ... \ , e_{n+1}\right\rbrace$ y $S=\left\lbrace u_1, \ ... \ , u_m \right\rbrace$ un conjunto de vectores con $m>n+1.$ Por ser $B$ base tengo: $$\begin{align*} u_1 &= \lambda_{11}e_1 + \ ... \ + \lambda_{1\ n+1}e_{n+1} \\ &. \\ &. \\ &. \\  u_{n+1} &= \lambda_{n+1 \ 1}e_1 + \ ... \ + \lambda_{n+1 \ n+1}e_{n+1} \\ &. \\ &. \\ &. \\  u_{m} &= \lambda_{m \ 1}e_1 + \ ... \ + \lambda_{m \ n+1}e_{n+1} \end{align*}$$Ahora considero los conjuntos: $$\begin{align*} B' &=\left\lbrace e_2, \ ... \ , e_{n+1} \right\rbrace \\ S' &= \left\lbrace u_2-\frac{\lambda_{21}}{\lambda_{11}}u_1, \ ... \ , u_{m}-\frac{\lambda_{m1}}{\lambda_{11}}u_1 \right\rbrace \end{align*}$$Ahora bien, $ S' \subset \langle B' \rangle$ y $\left| B' \right| = n,$ y como $\left| S' \right| = m-1 >n,$ por la hipótesis de inducción $S'$ es un sistema dependiente, y fácilmente se sigue que $u_1$ es combinación lineal de $u_2, \ ... \ , u_m,$ luego $S$ es linealmente dependiente.

  2. Ahora supongamos que tenemos $E$ un $K-$espacio vectorial y $B$ es una base de cardinal $n.$ Supongamos que $B'$ es otra base de cardinal $m.$ Por ser $B$ base y $B'$ una colección de vectores de $E$ linealmente independientes, tiene que darse $m \leq n.$ Por otro lado, $B'$ es base y $B$ es una colección de vectores linealmente independientes, luego ha de ser $n \leq m$ (acabamos de utilizar dos veces el resultado que hemos probado). Por tanto $n=m.$

    En el caso de que $B'$ sea infinita y $B$ finita y de cardinal $n,$ basta tomar un subconjunto, $S,$ de $B',$ finito (que será una colección de vectores linealmente independientes) y de cardinal $m>n$ y aplicar el mismo razonamiento para llegar a que $S$ es linealmente dependiente, lo que contradice que $B'$ sea base.

Para terminar, vamos a ver que todo espacio vectorial tiene una base, y por tanto la estructura de espacio vectorial es la de un conjunto en el que todos sus elementos pueden expresarse como combinación lineal de unos pocos que son independientes (los de una base).
$\text{Teorema.}$ Sea $E$ un $K-$espacio vectorial. Entonces existe $B \subset E$ y tal que $B$ es base de $E.$

La demostración de este resultado utiliza el Lema de Zorn, una afirmación equivalente al Axioma de Elección. La demostración se puede encontrar en varios sitios y es conocida. Al hablar sobre relaciones de orden y elementos maximales, cadenas, etc. no la incluiremos aquí, pero proponemos el enlace: demostración y este otro, que lleva a un foro sobre la demostración.

Por tanto todo espacio vectorial tiene una base (al menos) y esta puede ser finita o infinita. Por ahora no nos van a interesar mucho los espacios vectoriales con bases infinitas (suelen aparecer en análisis de Fourier y temas más avanzados junto con herramientas del análisis), pero sí nos interesará cuando la base sea finita. Además en este último caso hemos visto que toda base tiene el mismo cardinal. A este número lo llamaremos dimensión del espacio vectorial.
$\text{Def.}$ (Dimensión)
Dado $E$ un $K-$espacio vectorial, definimos la dimensión de $E$ como el cardinal de una de sus bases.

Comentarios

Frecuentes

Aplicaciones Lineales, Isomorfismos y Cambio de Base

Recurrencias Lineales no Homogéneas

Relaciones de Orden y de Equivalencia

El Teorema del Sándwich

Aplicaciones y Cardinales