Base, Estructura y Dimensión de un Espacio Vectorial
Para seguir este post es conveniente conocer los conceptos que hemos tratado
en los dos posts anteriores sobre espacios vectoriales:
Espacios Vectoriales, donde definimos lo que era un
espacio vectorial, un
sub-espacio vectorial
y vimos algunos ejemplos; y
Sistemas Libres y Generadores, donde vimos qué era un generador, el espacio generado por un conjunto de
vectores, definimos el concepto de independencia lineal y vimos qué eran los
sistemas libres. En particular los conceptos de
espacio generado por un conjunto de vectores e
independencia lineal van a ser clave a lo largo de este post.
EL MENOR SUB-ESPACIO
Vamos a comenzar respondiendo a una pregunta que puede resultar interesante.
Dado $E$ un $K-$espacio vectorial y $v \in E$ un vector, ¿cuál es el menor
sub-espacio $F\subset E$ que contiene a $v$? Para ser sub-espacio, $F$ debe
contener al conjunto $\left\lbrace \lambda v : \lambda \in K \right\rbrace$
sin duda. Tal y como vimos ayer, ese conjunto es de hecho un sub-espacio y es
precisamente $\langle v \rangle.$ La idea que surge ahora es precisamente que
ha de ser $F=\langle v \rangle.$ Antes de intentar demostrarlo tenemos que
decir qué es el "menor sub-espacio" que contiene a $v$. Podemos considerar
todos los sub-espacios de $E$ que contienen a $v$ y, como hemos visto que la
intersección de sub-espacios es un sub-espacio, definir $F$ como la
intersección de todos esos sub-espacios que contienen a $v.$ Esto tiene todo
el sentido del mundo: si $F$ es el menor sub-espacio que contiene a $v,$
estará contenido en todos los sub-espacios que contienen a $v,$ y por tanto
estará en su intersección. Además, por ser el menor, es el "más restrictivo" y
será quien determine la intersección. Por tanto definimos:
$\text{Def.}$ Sea $E$ un $K-$espacio vectorial y $v \in E$ un vector. Se
define el menor sub-espacio vectorial que contiene a $v$ como: $$F^{v} =
\bigcap_{F \in I} F$$donde $I=\left\lbrace F \subset E : \ F \text{ es sub-ev.
de }E \text{ y } v \in F \right\rbrace.$
Ahora vamos a demostrar que realmente este sub-espacio es lo mismo que
$\langle v \rangle.$
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y $v \in E$ un vector. Sea
$F^{v}$ el menor sub-espacio vectorial de $E$ que contiene a $v.$ Entonces
$F^{v}=\langle v \rangle.$
Para demostrar la igualdad entre ambos conjuntos vamos a demostrar las dos
inclusiones.
$\subset )$ Sea $u \in F^v $ entonces $u \in \bigcap_{F \in I} F$ donde $I$ es
el mismo que en la definición anterior. Por tener $v \in \langle v \rangle
\subset E$ y como $\langle v \rangle$ es sub-espacio vectorial de $E,$ se
tiene que $\langle v \rangle \in I$ y por tanto $u \in \langle v \rangle.$
$\supset )$ Sea $u \in \langle v \rangle.$ Entonces $u = \lambda v$ para algún
$\lambda \in K.$ Además, por ser $F^v$ un sub-espacio vectorial y tener $v \in
F^v,$ se tiene que $\lambda v \in F^v$ y por tanto $u \in F^v.$
Por tanto queda demostrado que $F^v = \langle v \rangle.$
Sin embargo el interés no termina aquí. Ya que hemos conseguido hacerlo para
un vector, lo razonable sería planteárnoslo para cualquier colección (finita)
de vectores. Vamos a adaptar la definición anterior a este caso y demostrar
(una adaptación de) la proposición anterior también en este caso.
$\text{Def.}$ Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1, \ ... \
, v_n \right\rbrace \subset E$ un conjunto de vectores. Se define el menor
sub-espacio vectorial que contiene a $S$ como: $$F^{S} = \bigcap_{F \in I}
F$$donde $I=\left\lbrace F \subset E : \ F \text{ es sub-ev. de }E \text{ y }
S \subset F \right\rbrace.$
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1, \ ...
\ , v_n \right\rbrace \subset E$ un conjunto de vectores. Sea $F^{S}$ el
menor sub-espacio vectorial de $E$ que contiene a $S.$ Entonces
$F^{S}=\langle S \rangle.$
De nuevo vamos a tener que mostrar las dos inclusiones, de igual manera que
en la proposición anterior.
$\subset )$ Sea $u \in F^S $ entonces $u \in \bigcap_{F \in I} F$ donde $I$
es el mismo que en la definición anterior. Por tener $S \subset \langle S
\rangle \subset E$ y como $\langle S \rangle$ es sub-espacio vectorial de
$E,$ se tiene que $\langle S \rangle \in I$ y por tanto $u \in \langle S
\rangle.$
$\supset )$ Sea $u \in \langle S \rangle.$ Entonces $u = \lambda_1 v_1 + \
... \ + \lambda_n v_n$ para ciertos $\lambda_i \in K$ donde $i=1,2,...,n.$
Además, por ser $F^S$ un sub-espacio vectorial y tener $v_1,...,v_n \in
F^S,$ se tiene que $\lambda_1 v_1 + \ ... \ + \lambda_n v_n \in F^S$ y por
tanto $u \in F^S.$
Queda demostrado que $F^S=\langle S \rangle$ y de hecho el esquema de la
demostración es prácticamente igual que el de la anterior. Lo que esto nos
quiere decir es que podemos hablar indistintamente del espacio generado por
una colección (finita) de vectores y el mínimo sub-espacio que los contiene a
todos. De hecho, podríamos haber definido $\langle S \rangle$ en términos de
$F^S$ precisamente porque acabamos de demostrar que son lo mismo.
BASE DE UN ESPACIO VECTORIAL
Llegamos ahora al punto donde empezaremos a descubrir lo que es realmente un
espacio vectorial. Hemos visto lo que es un sistema libre y el concepto de
independencia lineal. Vamos a suponer que tenemos un espacio vectorial, $E,$
sobre un cuerpo, $K,$ y tenemos un conjunto de vectores: $S=\left\lbrace v_1,
\ ... \ , v_n \right\rbrace.$ Ahora tomamos un nuevo vector: $v,$ que es
linealmente dependiente de los vectores de $S,$ e.d. $v=\lambda_1 v_1 + \ ...
\ + \lambda_n v_n.$ Ya hemos visto algún ejemplo en el post anterior donde nos
dábamos cuenta de que el espacio generado por $S$ y el espacio generado por
$S$ y $v$ eran el mismo, precisamente por ser $v$ linealmente dependiente de
los vectores de $S.$ Vamos a ver que esto siempre es así y vamos a
demostrarlo.
$\text{Prop.}$ Sea $E$ un $K-$espacio vectorial y $S=\left\lbrace v_1 , \ ...
\ , v_n \right\rbrace$ un conjunto de vectores de $E.$ Sea $v= \lambda_1 v_1 +
\ ... \ + \lambda_n v_n \in E$ un vector linealmente dependiente de $v_1, \
... \ , v_n$ tal que $\lambda_i \in K$ (donde $i=1,2,...,n).$ Entonces
$\langle v_1, \ ... \ , v_n \rangle = \langle v_1, \ ... \ , v_n, v \rangle.$
Vamos a demostrar las dos inclusiones:
$\subset )$ Sea $u \in \langle S \rangle = \langle v_1, \ ... \ , v_n
\rangle.$ Entonces existen $\mu_1, \ ... \ , \mu_n \in K$ tales que $u= \mu_1
v_1 + \ ... \ + \mu_n v_n + 0_K v.$ Así, $u$ es combinación lineal de $v_1, \
... \ , v_n , v$ y por tanto $u \in \langle v_1, \ ... \ , v_n, v \rangle.$
$\supset )$ Sea $u \in \langle v_1, \ ... \ , v_n, v \rangle.$ Entonces $u =
\mu_1 v_1 + \ ... \ + \mu_n v_n + \mu v$ pero como $v$ es como en el
enunciado: $$u=(\mu_1 + \mu \lambda_1) v_1 + \ ... \ + (\mu_n + \mu \lambda_n)
v_n$$y por tanto $u \in \langle v_1, \ ... \ , v_n \rangle.$
Lo que esto nos muestra es que para aumentar el espacio generado por una
colección de vectores hace falta añadirle uno que sea linealmente
independiente a ellos. Por otro lado también nos enseña que si en una
colección de vectores hay unos pocos que son linealmente dependientes del
resto, estos pocos pueden ser retirados y el espacio generado seguirá siendo
el mismo. Vamos a ver un ejemplo.
Si consideramos el conjunto $S=\left\lbrace (0,1),(0,2),(0,3),(0,13)
\right\rbrace$ de vectores en $\mathbb{R}^2,$ no es difícil ver que $S$ no es
linealmente independiente. $\langle S \rangle = \langle (0,1) \rangle.$
Podemos reducir por tanto $S$ a $S'=\lbrace (0,1) \rbrace$ y que el espacio
generado por ambos siga siendo el mismo. Para aumentar el espacio generado,
añadimos un vector que sea linealmente independiente de $(0,1),$ por ejemplo
$(1,1).$ El sistema $S''=\left\lbrace (0,1), (1,1) \right\rbrace$ es
independiente y de hecho genera todo $\mathbb{R}^2.$
Planteémonos ahora que tenemos un sub-espacio vectorial de un espacio
vectorial. Tomamos todos sus vectores y vamos eliminando aquellos que son
linealmente dependientes de otros. Parece que al final nos quedaremos con una
colección linealmente independiente que además genere el mismo sub-espacio.
Esta es la idea detrás de lo que es la base de un espacio vectorial: un
conjunto de vectores linealmente independientes (un sistema libre) que además
genera todo el espacio.
$\text{Def.}$ (Base)
Sea $E$ un $K-$espacio vectorial. Una base de $E$ es un conjunto de vectores
linealmente independientes que genera $E.$
$\text{Comentario.}$ Una base puede ser finita o infinita, dependerá del
espacio. Por ahora nos interesarán solo los espacios con bases finitas.
Veamos algunos ejemplos de bases de espacios vectoriales:
El conjunto $$B_n=\left\lbrace
(1,0,0,...,0),(0,1,0,...,0),(0,0,1,...,0),...,(0,0,0,...,1) \right\rbrace$$es
base de $\mathbb{R}^n$ visto como espacio vectorial. Por ejemplo, en
$\mathbb{R}^2,$ $B_2=\left\lbrace (1,0),(0,1) \right\rbrace$ es una base
(aunque no es la única). Otra base de $\mathbb{R}^2$ es $\left\lbrace (1,1),(0,3) \right\rbrace,$
y otra distinta es $\left\lbrace (0,\frac{1}{2}),(\frac{1}{3},\frac{1}{10}) \right\rbrace.$ Para comprobar
que realmente todos estos conjuntos son base basta con ver que los dos vectores de cada uno son linealmente
independientes (para lo cual es necesario resolver un sistema de dos ecuaciones con dos incógnitas que tiene solución
única) y ver que todo vector de $\mathbb{R}^2$ se puede expresar como combinación lineal de cada par, para lo
cual también basta con resolver un sistema de dos ecuaciones con dos incógnitas.
El conjunto $\mathbb{R}_{\leq n} \left[ x \right]$ de los polinomios de grado
menor o igual que $n$ con coeficientes reales en la variable $x$ es un
$\mathbb{R}-$espacio vectorial, donde el producto de un escalar por un vector
es el polinomio que resulta de multiplicar cada coeficiente por el escalar, la
suma de polinomios es la suma de sus coeficientes y las operaciones en
$\mathbb{R}$ son las habituales. Una base de este espacio vectorial es
$B=\left\lbrace 1,x,x^2, \ ... \ , x^n \right\rbrace.$
Lo que hemos podido ver en estos ejemplos (especialmente con el primero) es que en cada espacio, el cardinal
(el número de elementos) de una base cualquiera es siempre el mismo. Vamos a
probar esto para espacios con bases finitas.
$\text{Teorema.}$ Sea $E$ un $K-$espacio vectorial y sea $B=\left\lbrace u_1, \
... \ , u_n \right\rbrace$ una base de $E.$ Entonces cualquier otra base de
$E$ tiene cardinal $n.$
Primero vamos a demostrar que si $E$ es un $K-$espacio vectorial con una base
$B$ de cardinal $n$ entonces cualquier conjunto de $m>n$ vectores es
linealmente dependiente. Esto vamos a verlo por inducción. Después
utilizaremos esto para demostrar que todas las bases de un espacio vectorial
tienen el mismo cardinal (caso finito).
-
Inducción:
Sea $E$ un $K-$espacio vectorial con una base $B=\lbrace e_1 \rbrace.$ Sea $S=\lbrace u_1, \ .. \ , u_m \rbrace$ un conjunto de $m>1$ vectores en $E.$ Entonces, por ser $B$ base, $u_1 = \lambda_1 e_1$ y $u_2 = \lambda_2 e_1$ con $\lambda_1, \lambda_2 \neq 0.$ Así: $u_2 = \frac{\lambda_2}{\lambda_1} u_1$ y por tanto no es un sistema linealmente independiente.
Ahora supongamos que para todo espacio vectorial con base de cardinal $k \leq n$ se tiene que si $S$ es un conjunto de $m>k$ vectores, entonces es linealmente dependiente. Vamos a ver qué ocurre en el caso $k=n+1:$
Considero $E$ un $K-$espacio vectorial con una base $B=\left\lbrace e_1, \ ... \ , e_{n+1}\right\rbrace$ y $S=\left\lbrace u_1, \ ... \ , u_m \right\rbrace$ un conjunto de vectores con $m>n+1.$ Por ser $B$ base tengo: $$\begin{align*} u_1 &= \lambda_{11}e_1 + \ ... \ + \lambda_{1\ n+1}e_{n+1} \\ &. \\ &. \\ &. \\ u_{n+1} &= \lambda_{n+1 \ 1}e_1 + \ ... \ + \lambda_{n+1 \ n+1}e_{n+1} \\ &. \\ &. \\ &. \\ u_{m} &= \lambda_{m \ 1}e_1 + \ ... \ + \lambda_{m \ n+1}e_{n+1} \end{align*}$$Ahora considero los conjuntos: $$\begin{align*} B' &=\left\lbrace e_2, \ ... \ , e_{n+1} \right\rbrace \\ S' &= \left\lbrace u_2-\frac{\lambda_{21}}{\lambda_{11}}u_1, \ ... \ , u_{m}-\frac{\lambda_{m1}}{\lambda_{11}}u_1 \right\rbrace \end{align*}$$Ahora bien, $ S' \subset \langle B' \rangle$ y $\left| B' \right| = n,$ y como $\left| S' \right| = m-1 >n,$ por la hipótesis de inducción $S'$ es un sistema dependiente, y fácilmente se sigue que $u_1$ es combinación lineal de $u_2, \ ... \ , u_m,$ luego $S$ es linealmente dependiente.
-
Ahora supongamos que tenemos $E$ un $K-$espacio vectorial y $B$ es una
base de cardinal $n.$ Supongamos que $B'$ es otra base de cardinal $m.$
Por ser $B$ base y $B'$ una colección de vectores de $E$ linealmente
independientes, tiene que darse $m \leq n.$ Por otro lado, $B'$ es base y
$B$ es una colección de vectores linealmente independientes, luego ha de
ser $n \leq m$ (acabamos de utilizar dos veces el resultado que hemos
probado). Por tanto $n=m.$
En el caso de que $B'$ sea infinita y $B$ finita y de cardinal $n,$ basta tomar un subconjunto, $S,$ de $B',$ finito (que será una colección de vectores linealmente independientes) y de cardinal $m>n$ y aplicar el mismo razonamiento para llegar a que $S$ es linealmente dependiente, lo que contradice que $B'$ sea base.
Para terminar, vamos a ver que todo espacio vectorial tiene una base, y por
tanto la estructura de espacio vectorial es la de un conjunto en el que todos
sus elementos pueden expresarse como combinación lineal de unos pocos que son
independientes (los de una base).
$\text{Teorema.}$ Sea $E$ un $K-$espacio vectorial. Entonces existe $B \subset
E$ y tal que $B$ es base de $E.$
La demostración de este resultado utiliza el Lema de Zorn, una
afirmación equivalente al Axioma de Elección. La demostración se
puede encontrar en varios sitios y es conocida. Al hablar sobre relaciones de
orden y elementos maximales, cadenas, etc. no la incluiremos aquí, pero
proponemos el enlace:
demostración y este otro, que lleva a un
foro sobre la demostración.
Por tanto todo espacio vectorial tiene una base (al menos) y esta puede ser
finita o infinita. Por ahora no nos van a interesar mucho los espacios
vectoriales con bases infinitas (suelen aparecer en análisis de Fourier y
temas más avanzados junto con herramientas del análisis), pero sí nos
interesará cuando la base sea finita. Además en este último caso hemos visto
que toda base tiene el mismo cardinal. A este número lo llamaremos
dimensión del espacio vectorial.
$\text{Def.}$ (Dimensión)
Dado $E$ un $K-$espacio vectorial, definimos la dimensión de $E$ como el
cardinal de una de sus bases.
Comentarios
Publicar un comentario