Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

137
Conceptos B´ asicos de Algebra Lineal y Geometr´ ıa Multidimensional Alvaro Cofr´ e Duvan Henao

Transcript of Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Page 1: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Conceptos Basicos de Algebra Linealy Geometrıa Multidimensional

Alvaro Cofre

Duvan Henao

Page 2: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

ii

Page 3: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Indice general

1. Sistemas de ecuaciones lineales 11.1. El metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . . . . 31.2. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3. Propiedades del determinante . . . . . . . . . . . . . . . . . . . . . . . . 121.4. Teorema de Laplace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.5. La regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2. Relaciones de dependencia lineal 292.1. El espacio vectorial Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292.2. Dependencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302.3. Dimension del espacio vectorial Rn . . . . . . . . . . . . . . . . . . . . . 312.4. Rango de un sistema de vectores . . . . . . . . . . . . . . . . . . . . . . 352.5. Rango de matrices y dependencia lineal . . . . . . . . . . . . . . . . . . 372.6. Equivalencia de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.7. Soluciones de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . 46

2.7.1. Compatibilidad para sistemas no homogeneos . . . . . . . . . . . 462.7.2. Sistemas homogeneos . . . . . . . . . . . . . . . . . . . . . . . . 512.7.3. Soluciones para sistemas arbitrarios . . . . . . . . . . . . . . . . 53

3. Algebra de matrices 553.1. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 563.2. Matrices inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593.3. Representacion matricial de un sistema de ecuaciones . . . . . . . . . . . 603.4. Rango de un producto de matrices . . . . . . . . . . . . . . . . . . . . . 61

4. Vectores en Rn 634.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 634.2. Subespacios de vectores en Rn . . . . . . . . . . . . . . . . . . . . . . . 654.3. Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 714.4. Subespacios de soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . 79

5. Distancia y Volumen en Rn 835.1. Metrica euclidiana . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 835.2. Volumenes y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 85

6. Sistemas de coordenadas 916.1. Transformacion de coordenadas . . . . . . . . . . . . . . . . . . . . . . . 936.2. Variedades lineales y sistemas de ecuaciones . . . . . . . . . . . . . . . . 956.3. Volumenes y sistemas de coordenadas cartesianas . . . . . . . . . . . . . 97

iii

Page 4: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

iv INDICE GENERAL

6.4. Deformacion continua de sistemas de coordenadas . . . . . . . . . . . . 1006.5. Construccion de sistemas ortonormales . . . . . . . . . . . . . . . . . . . 1046.6. Distancia y Variedades lineales . . . . . . . . . . . . . . . . . . . . . . . 105

7. Movimientos Rıgidos 1117.1. Movimientos rıgidos en R2 . . . . . . . . . . . . . . . . . . . . . . . . . . 1157.2. Movimientos rıgidos en R3 . . . . . . . . . . . . . . . . . . . . . . . . . . 118

8. Problemas propuestos 125

Page 5: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Capıtulo 1

Sistemas de ecuacioneslineales

Nota: La palabra numero designa a un elemento de un campo K. En nuestro casoK es el campo de los numeros reales o bien el de los complejos.

Definicion 1.1 Llamaremos ecuacion lineal con n incognitas a una ecuacion del tipo

a1x1 + a2x2 + · · · anxn = b (1.1)

Los numeros a1, . . . , an se llaman coeficientes de las incognitas, al numero b se lellama termino libre . Diremos que la coleccion ordenada de numeros (k1, k2, . . . , kn)es una solucion de la ecuacion si

a1k1 + a2k2 + · · ·+ ankn = b

Si b = 0 la ecuacion se dice homogenea .

Puesto que alguno de los coeficientes ai en (1.1) debe ser distinto de cero, podemossuponer que a1 6= 0. Asignemos valores arbitrarios k2, k3, . . . , kn a las incognitas x2,x3, . . . , xn, entonces

x1 =b− a2k2 − a3k3 − · · · − ankn

a1.

Claramente, la coleccion ordenada(

b−a2k2−···−ankn

a1, k2, k3, . . . , kn

)es una posible solu-

cion de la ecuacion. Puesto que esta es solucion independientemente de cuales son losvalores de k concluimos que (1.1) tiene infinitas soluciones.

Definicion 1.2 Sean

a1x1 + · · ·+ anxn = c1 (1.2)b1x1 + · · ·+ bnxn = c2 (1.3)

Sean α, β numeros arbitrarios. Diremos que la ecuacion

α(a1x1 + · · ·+ anxn) + β(b1x1 + · · ·+ bnxn) = αc1 + βc2 (1.4)

es combinacion lineal de las ecuaciones (1.2) y (1.3).

1

Page 6: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Sea (k1, k2, . . . , kn) una solucion comun de (1.2) y (1.3). Entonces

α(a1k1 + · · ·+ ankn) + β(b1k1 + · · ·+ bnkn) = αc1 + βc2

y (k1, k2, . . . , kn) es solucion de (1.4).

Se concluye que si una ecuacion es combinacion lineal de dos o mas ecuaciones linealesentonces toda solucion comun de las ecuaciones que participan en la combinacion lineales solucion de la ecuacion.

Nota: A una coleccion ordenada del tipo (k1, k2, . . . , kn) la llamaremos n-tupla.

Definicion 1.3 Consideremos el sistema de ecuaciones lineales de m ecuaciones conn incognitas

a11x1 + · · ·+ a1nxn = c1

...an1x1 + · · ·+ amnxn = cm

Diremos que la n-tupla (k1, k2, . . . , kn) es solucion del sistema si es solucion de cadauna de las m ecuaciones del sistema. Si c1 = c2 = · · · = cm = 0 diremos que el sistemaes homogeneo .

Definicion 1.4 Sean

a11x1 + · · ·+ a1nxn = c1

...am1x1 + · · ·+ amnxn = cm

(1.5)

b11x1 + · · ·+ b1nxn = d1

...bm1x1 + · · ·+ bmnxn = dm

(1.6)

Supongamos que cada ecuacion del sistema (1.5) es combinacion lineal de las ecua-ciones del sistema (1.6) y viceversa. Diremos que los sistemas (1.5) y (1.6) son equiv-alentes .

Teorema 1.5 Dos sistemas equivalentes tienen exactamente las mismas soluciones.

Demostracion: Sea (k1, . . . , kn) solucion de (1.5). Considere la primera ecuacion de(1.6). Ella es una combinacion lineal de las ecuaciones del primer sistema. Puesto que(k1, k2, . . . , kn) es una solucion comun entonces es solucion de la primera ecuacion delsistema (1.6).

Razonando analogamente para cada una de las ecuaciones del sistema (1.6) hemosdemostrado que cada solucion del sistema (1.5) es solucion del sistema (1.6). El mismoargumento permite demostrar que toda solucion de (1.6) es solucion de (1.5).

Supongamos ahora que (1.6) no tiene solucion. Entonces (1.5) tampoco puede tenerlay viceversa. Se concluye que (1.5) y (1.6) tienen exactamente las mismas soluciones.

Definicion 1.6 Si un sistema de ecuaciones lineales tiene solucion diremos que escompatible . Si tiene exactamente una solucion diremos que es compatible determi-nado , si tiene mas de una solucion diremos que es compatible indeterminado . Si notiene solucion diremos que es incompatible .

Page 7: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.1. EL METODO DE ELIMINACION DE GAUSS 3

1.1. El metodo de eliminacion de Gauss

Consideremos el sistema

a11x1 + · · ·+ a1nxn = b1

...am1x1 + · · ·+ amnxn = bm

(1.7)

Caso 1: El coeficiente de x1 es distinto de cero en alguna de las ecuaciones. En talcaso podemos suponer que a11 6= 0 (si es necesario reordenamos las ecuaciones).

Caso 2: Si aij = 0, j = 1, . . . , m simplemente tenemos un sistema de m ecuaciones conn− 1 incognitas.

Supongamos entonces que a11 6= 0. Reemplacemos el sistema (1.7) por un nuevo sis-tema equivalente, que por lo tanto tiene exactamente las mismas soluciones que (1.7).Denotemos por ECi a la i-esima ecuacion del sistema (1.7). Construyamos el nuevosistema definiendo sus ecuaciones de la manera siguiente:

Ecuacion 1 = EC1

Ecuacion 2 = EC2 − a21

a11EC1

Ecuacion 3 = EC3 − a31

a11EC1

...Ecuacion m = ECm − am1

a11EC1

Obtenemos ası un nuevo sistema equivalente a (1.7)

a11x1 + a12x2 + · · ·+ a1nxn = b1

a′22x2 + · · ·+ a′2nxn = b′2a′32x2 + · · ·+ a′3nxn = b′3

...a′m2x2 + · · ·+ a′mnxn = b′m

(1.8)

Nota: Cada una de las ecuaciones de (1.7) se puede reconstruir facilmente comocombinacion lineal de las ecuaciones de (1.8), es por esto que son equivalentes.

Caso 1: El coeficiente de x2 es distinto de cero en alguna de las ecuaciones 2, 3, . . . , m.

Caso 2: Si a′2j = 0 ∀ j = 2, 3, . . . , m, procedemos a la eliminacion de la incognita x3.

Supongamos entonces que a′22 6= 0, hacemos lo mismo en (1.8). Denotemos por EC ′i a laecuacion i-esima del sistema, y por EC ′′i a la ecuacion i-esima del sistema a construir.

Page 8: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Definimos entonces al nuevo sistema por

EC ′′1 = EC ′1EC ′′2 = EC ′2

EC ′′3 = EC ′3 −a′32a′22

EC ′2

EC ′′4 = EC ′4 −a′42a′22

EC ′2

...

EC ′′m = EC ′m − a′m2

a′22EC ′2

Obtenemos ası un sistema equivalente a (1.8) (y por lo tanto equivalente a (1.7))

a11x1 + a12x2 + a13x3 + · · ·+ a1nxn = b1

a′22x2 + a′23x3 + · · ·+ a′2nxn = b′2a′′33x3 + · · ·+ a′′3nxn = b′′3

...a′′m3x3 + · · ·+ a′mnxn = b′′m

Nota: Si en alguna parte del proceso alguna ecuacion tiene todos los coeficientes y eltermino libre iguales a cero, podemos suprimirla puesto que la ecuacion

0 · x1 + 0 · x2 + · · ·+ 0 · xn = 0

es satisfecha por cualquier n-tupla (k1, k2, . . . , kn).

Sin en alguna parte del proceso alguna ecuacion tiene todos los coeficientes iguales acero y el termino libre distinto de 0 debemos concluir que el sistema es incompatible .

Supongamos que el sistema es compatible. En tal caso pueden presentarse solo dossituaciones:

i) Despues de k − 1 etapas, las incognitas xk+1, xk+2, . . . , xn quedan todas elimi-nadas producto de suprimir ecuaciones del tipo 0 · x1 + · · · + 0 · xn = 0. En talcaso el sistema queda con forma trapezoidal

a11x1 + a12x2 + a13x3 + · · ·+ a1kxk + · · · a1nxn = b1

a′22x2 + a′23x3 + · · ·+ a′2kxk + · · ·+ a′2nxn = b′2a′′33x3 + · · ·+ a′′3kxk + · · ·+ a′′3nxn = b′′3

...a(k−1)kk xk + · · ·+ a

(k−1)kn xn = b

(k−1)k ,

con a11 6= 0, a′22 6= 0, · · · , a(k−1)kk 6= 0, donde k < m y k < n. Como a

(k−1)kk 6= 0

podemos asignar valores arbitrarios a xk+1, xk+2, . . . , xn en la ultima ecuacion ydespejar xk. Luego reemplazamos en la penultima ecuacion y despejamos xk−1

y ası sucesivamente hasta llegar hasta x1. Hemos obtenido ası una solucion quedepende de n− (k− 1) parametros arbitrarios (nadie afirma que sea la unica), el

Page 9: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.1. EL METODO DE ELIMINACION DE GAUSS 5

sistema es compatible indeterminado .

Ejemplo:

x1 − x2 + 2x3 + x4 = 1x1 + 2x2 − x3 − x4 = 0

3x1 + 0 · x2 + 3x3 + x4 = 22x1 − 2x2 + 4x3 + 2x4 = 2

Eliminemos x1:

x1 − x2 + 2x3 + x4 = 13x2 − 3x3 − 2x4 = −13x2 − 3x3 − 2x4 = −1

0 · x2 + 0 · x3 + 0 · x4 = 0

Eliminemos x2:

x1 − x2 + 2x3 − x4 = 13x2 − 3x3 − 2x4 = −1

0 · x3 + 0 · x4 = 0

Tenemos k = 3. Tenemos una solucion que depende de 4 − (3 − 1) parametrosarbitrarios. En la segunda ecuacion sea x3 = λ, x4 = µ entonces x2 = 1

3 [3λ+2µ−1]. Reemplazando en la primera se tiene

x1 =13[3λ + 2µ− 1]− 2λ + µ + 1 = −λ +

53µ +

23

Obtenemos ası una solucion[−λ + 5

3µ + 23 , λ + 2

3µ− 13 , λ, µ

]donde λ y µ son

numeros arbitrarios. Tenemos entonces infinitas soluciones, una para cada par devalores de λ y µ.

ii) Si k = n el sistema tiene forma triangular

a11x1 + a12x2 + · · ·+ a1nxn = b1

a′22x2 + · · ·+ a′2nxn = b′2...

a(n−1)nn xn = b(n−1)

n

Es claro que en este caso el sistema tiene exactamente una solucion puesto que laultima ecuacion determina el valor de xn en forma unica y la penultima determinael valor de xn−1 en forma unica, etc.

Ejemplo:

x1 + x2 + x3 = 02x1 + 2x2 − x3 = 1−x1 + x2 − 3x3 = 1

Page 10: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Eliminemos x1:

x1 + x2 + x3 = 0−3x3 = 1

2x2 − 2x3 = 1

Reordenemos las ecuaciones:

x1 + x2 + x3 = 02x2 − 2x3 = 1

−3x3 = 1

Luego x3 = − 13 , 2x2 = 2(− 1

3 ) + 1 ⇒ x2 = 16 , x1 = − 1

6 + 13 = 1

6 .

Si el sistema es homogeneo, puesto que (0, 0, . . . , 0) es siempre solucion tenemos sololas alternativas de compatible determinado si k = n y compatible indeterminado sik < n. Tenemos ası:Todo sistema homogeneo de m ecuaciones con n incognitas con m < n es compatibleindeterminado (solo puede ser reducido a la forma trapezoidal).

Llamaremos matriz del sistema al cuadro rectangular de m× n numeros

a11 a12 · · · a1n

a21 a22 · · · a2n

......

. . ....

am1 am2 · · · amn

y matriz ampliada del sistema a

a11 a12 · · · a1n b1

a21 a22 · · · a2n b2

......

. . ....

...am1 am2 · · · amn bm

Estas definiciones permiten escribir un sistema en forma sintetica.

Ejemplo: El sistema

x1 + 2x2 + 5x3 = −9x1 − x2 + 3x3 = 2

3x1 − 6x2 − x3 = 25

puede escribirse como

1 2 5 −91 −1 3 23 −6 −1 25

y pueden hacerse las mismas transformaciones que realizarıamos con las ecuacionesdel sistema con las filas de la matriz ampliada, ası eliminando x1 obtenemos

1 2 5 90 −3 −2 110 −12 −16 52

Page 11: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.1. EL METODO DE ELIMINACION DE GAUSS 7

Eliminando x2:

1 2 5 90 −3 −2 110 0 −8 8

luego x1 = 2, x2 = −3, x3 = −1.

Ejemplo: Resolver el sistema

1 −5 −8 1 33 1 −3 −5 11 0 −7 2 −50 11 20 −9 2

Eliminamos x1:

1 −5 −8 1 30 16 21 −8 −80 5 1 1 −80 11 20 −9 2

Antes de eliminar x2, restemos la segunda ecuacion a la cuarta

1 −5 −8 1 30 16 21 −8 −80 5 1 1 −80 −5 −1 −1 10

Podemos ver de inmediato que el sistema es incompatible.

Ejemplo: Resolver el sistema

4 1 −3 −1 02 3 1 −5 01 −2 −2 3 0

Puesto que el sistema es homogeneo, omitimos la columna de los terminos libres ypermutamos la primera y la tercera ecuacion:

1 −2 −2 32 3 1 −54 1 −3 −1

1 −2 −2 30 7 5 −110 9 5 −13

1 −2 −2 30 7 5 −110 0 − 10

787

Tomemos x4 = λ arbitrario entonces x3 = 45λ luego

7x2 + 4λ− 11λ = 0 ⇒ x2 = λ

y

x1 = 2λ +85λ− 3λ =

35λ

Page 12: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

8 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

1.2. Determinantes

El metodo de Gauss nos permite resolver un sistema de ecuaciones pero no propor-ciona un criterio de compatibilidad en terminos de los coeficientes de las incognitas ylos terminos libres, menos aun una formula que permita encontrar los valores de lasincognitas. Sin embargo, una modificacion de dicho metodo aplicado a sistemas de dosecuaciones con dos incognitas y tres ecuaciones con tres incognitas permite deducirla llamada “regla de Cramer”, previa introduccion de un nuevo ente matematico: eldeterminante . Primero nos abocaremos a la tarea de introducir esta nueva nocionpara lo cual necesitamos algunos conceptos auxiliares.

Sea M un conjunto finito formado por n elementos a los cuales ponemos etiquetasdistintas con los numeros 1, 2, . . . , n. Podemos llamar i1 al objeto que tiene la etiquetacon el numero 1, i2 al objeto que tiene la etiqueta con el numero 2, . . . , in al objeto quetiene la etiqueta con el numero n. Decimos que i1, i2, . . . , in constituyen un conjuntode n sımbolos y como la naturaleza de los objetos no va a jugar papel alguno en loque sigue supondremos simplemente que el conjunto de n sımbolos esta formado porlos numeros 1, 2, . . . , n. Dichos sımbolos pueden ser ordenados en una fila de diversasmaneras. Por ejemplo, si n = 3 podemos ordenarlos de 6 maneras distintas, a saber:

1 2 3, 1 3 2, 2 1 3, 2 3 1, 3 1 2, 3 2 1 .

En general, si tenemos n sımbolos, el primero de una fila puede ser elegido de nmaneras. Por cada una de ellas tenemos n− 1 maneras de elegir el segundo. Por cadauna de las n(n − 1) maneras de elegir los dos primeros tenemos n − 2 maneras deelegir el tercero, ası para elegir los tres primeros tenemos n(n − 1)(n − 2) maneras.Continuando la argumentacion hasta agotar los recursos tenemos que con n sımbolospodemos formar

n(n− 1)(n− 2) · · · (n− (n− 2))(n− (n− 1)) = n!

filas distintas. A cada una de las filas la llamaremos una permutacion de ellos y a lafila 1 2 3 · · · n que sigue el orden natural la llamaremos permutacion natural.

Definicion 1.7 Si en una permutacion cualquiera intercambiamos dos sımbolos cua-lesquiera (no necesariamente contiguos) dejando todos los demas en su sitio obtenemosuna nueva permutacion. Decimos que esta nueva permutacion ha sido obtenida de laoriginal mediante una trasposicion.

Por ejemplo, si n = 5, 5 2 3 4 1 se obtiene de la permutacion natural intercambiando 1y 5.

Teorema 1.8 Consideremos las n! permutaciones de n sımbolos. Ellas pueden serescritas en una lista tal que cada permutacion que aparece en la lista puede ser obtenidade la anterior mediante una trasposicion, y la lista puede empezar con cualquiera deellas.

Demostracion: El teorema es cierto para n = 2. Supongamos que ha sido demostradopara n = k y consideremos todas las permutaciones de k + 1 sımbolos. Empecemos lalista con una cualquiera de ellas, digamos

i1i2i3 · · · ikik+1

Page 13: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.2. DETERMINANTES 9

y a continuacion escribamos todas aquellas que empiezan con i1 las cuales son k!. Comoel sımbolo i1 queda fijo, cada una de ellas puede ser considerada como una permutacionde k sımbolos y por lo tanto, por la hipotesis de induccion, pueden ser escritas en unalista en que cada una difiere de la anterior en una trasposicion llevada a cabo en lossımbolos i2, i3, . . . , ik+1 y empezando precisamente con i1i2i3 · · · ikik+1.

Veamos la ultima de esta lista preliminar. En ella transpongamos i1 con i2 y repitamosel proceso. Por este metodo construımos una lista de permutaciones donde hay k!permutaciones que empiezan con i1, k! que empiezan con i2, . . . , k! que empiezan conik+1; en total k!(k + 1) = (k + 1)! permutaciones distintas en que cada una difiere dela anterior en una trasposicion.

Corolario 1.9 Dada una permutacion de n sımbolos, a partir de ella es posible obtenerotra cualquiera mediante una sucesion de transposiciones.

Definicion 1.10 Sea i1i2 · · · in una permutacion cualquiera. Diremos que los sımbolosis e it forman una inversion si is > it pero s < t.

Por ejemplo, si n = 5 en3 2 4 1 5

i1 = 3, i2 = 2, i3 = 4, i4 = 1, i5 = 5.

Entonces i1 e i2 forman una inversion: i1 > i2 pero s = 1 < t = 2. i3 e i4 forman unainversion: i3 > i4 pero s = 3 < t = 4.

Definicion 1.11 Una permutacion se dice par si sus sımbolos forman un numero parde inversiones, impar si forman un numero impar de inversiones.

Por ejemplo, si n = 6, 3 2 1 6 4 5 es impar, 3 2 1 4 6 5 es par.

Teorema 1.12 Una trasposicion cambia la paridad de una permutacion.

Demostracion: Supongamos que los sımbolos a trasponer son contiguos

i1 i2 · · · k l · · · in

Al trasponer obtenemos i1 i2 · · · l k · · · in donde la disposicion de k y l con respecto alos restantes n − 2 sımbolos no ha cambiado luego al pasar de k l a l k quitamos unainversion o agregamos una.

Supongamos ahora que entre k y l hay s sımbolos

k ir ir+1 · · · ir+s−1 l

Pasamos a ir ir+1 · · · ir+s−1 l k mediante s+1 trasposiciones y luego a l ir ir+1 · · · ir+s−1 kmediante s trasposiciones mas. En total para obtener la ultima permutacion de laprimera realizamos 2s+1 trasposiciones de terminos contiguos, cada una de las cualescambio la paridad de la permutacion (primera parte de la demostracion) luego si erapar ahora es impar y viceversa.

Page 14: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

10 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Corolario 1.13 El numero de permutaciones pares es igual al numero de permuta-ciones impares.

Demostracion: Hagamos una lista en que cada una difiere de la anterior por unatrasposicion. Como para n ≥ 2 n! es par hay n!

2 de cada tipo.

Definicion 1.14 Sea M el conjunto de n sımbolos, sea f : M → M 1-1 y sobre.Diremos que f es una sustitucion de grado n.

Sean i1i2 · · · in y αi1αi2 · · ·αin dos permutaciones de M , sea A el cuadro(

i1 i2 · · · inαi1 αi2 · · · αin

)(1.9)

Podemos interpretar el cuadro de la siguiente manera: la primera fila es el dominioM de una funcion f : M → M y la segunda fila es su recorrido de modo tal quef(ij) = αij , j = 1, 2, . . . , n. A la inversa, cada funcion f : M → M que sea 1-1 y sobrepuede ser representada por uno de estos cuadros. Es claro que podemos identificar alconjunto de estos cuadros con el de las sustituciones de grado n; tambien es claro quecada sustitucion admite diversas representaciones, por ejemplo

(1 2 33 2 1

),

(3 1 21 3 2

)

representan la misma sustitucion de grado 3. En general, lo que define a (1.9) es laasignacion f(ij) = αij luego siempre es posible obtener, mediante trasposiciones decolumnas, una representacion de la forma

(1 2 3 · · · nα1 α2 α3 · · · αn

)(1.10)

Lo que no se puede hacer es intercambiar el orden de las dos filas porque ellas juegandistintos papeles, ası

(2 1 4 34 3 1 2

)y

(4 3 1 22 1 4 3

)

son distintas sustituciones de grado 4, en la primera f(2) = 4 en tanto que en la se-gunda f(2) = 3. De (1.10) es claro que hay n! sustituciones de grado n.

Volvamos a (1.9) y consideremos la paridad de ambas filas. Cualquier trasposicionde dos columnas de (1.9) hace cambiar solidariamente la paridad de ambas filas, siellas tienen la misma paridad en una representacion ellas tendran la misma paridaden cualquier otra, analogamente para el caso de paridad opuesta. Se concluye que elque ambas filas tengan la misma paridad o paridad opuesta no depende de la repre-sentacion de la sustitucion luego podemos definir

Definicion 1.15 Diremos que una sustitucion de grado n es par si en alguna repre-sentacion ambas filas tienen la misma paridad y diremos que es impar si en algunarepresentacion ambas tienen paridad opuesta.

Page 15: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.2. DETERMINANTES 11

Nota: La sustitucion identidad(

1 2 3 · · · n1 2 3 · · · n

)

se considera par.

De (1.10) se concluye que hay n!2 sustituciones pares y n!

2 sustituciones impares (n ≥ 2).Tambien es claro que si una sustitucion de grado n es par la suma del numero deinversiones de ambas filas es par y si es impar dica suma tambien es impar. Se concluyeque para juzgar la paridad de una sustitucion de grado n es conveniente favorecer larepresentacion (

1 2 3 · · · nα1 α2 α3 · · · αn

).

Puesto que la primera fila tiene 0 inversiones, la paridad de la sustitucion esta deter-minada por el numero de inversiones de la permutacion α1α2 · · ·αn.

Ejemplo:(

3 1 4 5 22 5 4 3 1

)es la misma sustitucion de grado 5 que

(1 2 3 4 55 1 2 4 3

).

Puesto que la permutacion 5 1 2 4 3 presenta cinco inversiones tenemos que la sustitu-cion dada es impar.

Estamos listos para introducir el concepto de determinante . Sea

(aij) ≡

a11 a12 · · · a1n

a21 a22 · · · a2n

......

. . ....

an1 an2 · · · ann

una matriz cuadrada de orden n. Consideremos todos los productos posibles de nelementos de (aij) donde cada producto contiene exactamente un elemento de cadafila y uno de cada columna, esto es, todos los productos de la forma

a1α1a2α2 · · · anαn (1.11)

donde α1α2 · · ·αn es una permutacion de los ındices 1,2,. . . , n. Puesto que para formar(1.11) podemos elegir primero un elemento de la primera fila de (aij), a saber a1α1 ,luego uno de la segunda fila, a saber a2α2 (donde a2α2 no puede estar en la columnaα1, esto es, α1 6= α2), luego uno de la tercera fila a saber a3α3 (donde a3α3 no puedeestar en las columnas α1 o α2, esto es α1 6= α2 6= α3) y ası continuamos hasta la filan, podemos concluir que hay n! de estos productos ya que en (1.11) los ındices filasiempre pueden escribirse en el orden natural.

Cada uno de los productos (1.11) tiene naturalmente un signo. Si la sustitucion(

1 2 3 · · · nα1 α2 α3 · · · αn

)

es par le mantenemos dicho signo, si es impar lo multiplicamos por -1.

A la suma algebraica de estos n! productos de la forma (1.11) con los signos adju-dicados mediante la regla recien enunciada lo llamaremos determinante de orden ncorrespondiente a la matriz (aij). Si n = 1 diremos que a11 es el determinante de

Page 16: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

12 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

orden 1 de la matriz (a11).

Al determinante de la matriz (aij) lo denotaremos por

det(aij) ≡

∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1n

a21 a22 · · · a2n

......

. . ....

an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣

Ejemplo: Sea

(aij) =

a11 a12 a13

a21 a22 a23

a31 a32 a33

Hay 6 productos de la forma (1.11)

a1α1a2α2a3α3

donde debemos rellenar α1, α2, α3 con todas las permutaciones posibles de los ındices1,2,3. Los 6 productos posibles son

a11a22a33

a12a23a31

a13a21a32

correspondientes a las permutaciones pares 1 2 3, 2 3 1, 3 1 2, ellosmantienen su signo. Los otros 3 son

a12a21a33

a11a23a32

a13a22a31

correspondientes a las permutaciones impares 2 1 3, 1 3 2, 3 2 1,ellos deben ser multiplicados por -1. Luego

det(aij) = a11a22a33 + a12a23a31 + a13a21a32 − a12a21a33 − a11a23a32 − a13a22a31

1.3. Propiedades del determinante

Definicion 1.16 Sea (aij) una matriz cuadrada de orden n. A la matriz cuadradade orden n (bij), donde bij = aji i = 1, 2, . . . , n, j = 1, 2, . . . , n la llamaremos latraspuesta de (aij), se anota

(bij) = (aij)t

Es claro que (bij) se obtiene de (aij) poniendo las filas de aij como columnas de bij .

Ejemplo:

(aij) =

1 3 52 1 41 1 1

⇒ (aij)t =

1 2 13 1 15 4 1

En general si

(aij) =

a11 a12 · · · a1n

a21 a22 · · · a2n

......

. . ....

an1 an2 · · · ann

⇒ (aij)t =

a11 a21 · · · an1

a12 a22 · · · an2

......

. . ....

a1n a2n · · · ann

Page 17: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.3. PROPIEDADES DEL DETERMINANTE 13

Nota: Cada producto a1α1a2α2 · · · anαnse llama un termino del determinante.

Propiedad 1: det(aij) = det(aij)t

Es evidente que ambos determinantes tienen los mismos terminos, hay que demostrarque el mismo termino tiene el mismo signo en det(aij) y en det(aij)t. Sea

a1α1a2α2 · · · anαn

un termino de det(aij). Si llamamos (bij) = (aij)t tal termino es en det(bij)

bα11bα22 · · · bαnn .

Si reordenaramos los factores de modo que el producto quede en la forma canonicab1γ1b2γ2 · · · bnγn

esto serıa lo mismo que llevar la sustitucion(

α1 α2 · · · αn

1 2 · · · n

)a la forma

(1 2 3 · · · nγ1 γ2 γ3 · · · γn

).

Pero esta ultima tiene la misma paridad que(

α1 α2 · · · αn

1 2 · · · n

)la cual a su vez

tiene la misma paridad que(

1 2 3 · · · nα1 α2 α3 · · · αn

)(la suma del numero de in-

versiones es la misma).

Se concluye que a1α1a2α2 · · · anαn tiene el mismo signo considerado como termino dedet(bij).

De la propiedad 1 se deduce que cualquier afirmacion sobre las filas del determinantees validad para sus columnas y viceversa, por esta razon las propiedades que siguensolo se demostraran para las filas del determinante.

Propiedad 2: Si para algun i, 1 ≤ i ≤ n, aij = 0 ∀ j = 1, 2, . . . , n entoncesdet(aij) = 0.

En efecto, cada termino contiene un factor de la i-esima fila (definicion de determi-nante) luego todos los terminos son iguales a cero.

Propiedad 3: Si un determinante se obtiene de otro permutando dos filas todos losterminos del primer determinante seran terminos del segundo pero con signos contra-rios, es decir, al permutar dos filas el determinante solo cambia de signo.

Supongamos que permutamos las filas i y j, i < j. Sea (bij) la matriz que se obtieneal permutar las filas.Consideremos un termino cualquiera del determinante original,

a1α1a2α2 · · · aiαi · · · ajαj · · · anαn

y su signo esta determinado por la paridad de(

1 2 · · · i · · · j · · · nα1 α2 · · · αi · · · αj · · · αn

)

Page 18: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

14 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

En el nuevo determinante el es

b1α1b2α2 · · · bjαi· · · biαj

· · · bnαn

(aiαi pasa a la fila j pero permanece en la columna αi, analogamente para ajαj ) y susigno esta determinado por la paridad de

(1 2 · · · j · · · i · · · nα1 α2 · · · αi · · · αj · · · αn

)

Puesto que 1 2 · · · j · · · i · · · n se obtiene de 1 2 · · · i · · · j · · · n mediante una trasposi-cion, ambas permutaciones tienen paridad contraria y por consiguiente ambas sustitu-ciones tienen paridad contraria.

Se concluye que a1α1a2α2 · · · anαnaparece en el nuevo determinante con signo opuesto

al que tenıa en el determinante original.

Propiedad 4: Un determinante con dos filas iguales es igual a cero.

Supongamos que det(aij) = d y supongamos que las filas i, j son iguales. Entonces alintercambiar las filas i, j obtenemos el mismo determinante, pero por la propiedad 3,obtenemos el determinante con signo opuesto luego d = −d ⇒ d = 0.

Propiedad 5: Si se multiplican todos los elementos de una fila del determinante porun numero k, el determinante queda multiplicado por k.

Supongamos que multiplicamos todos los elementos de la fila i por k. Por la definicionde determinante cada termino queda multiplicado por k.

Nota: El factor comun de todos los elementos de una fila puede ser extraıdo comoun factor del determinante.

Ejemplo: ∣∣∣∣∣∣

2 4 6a b cd e f

∣∣∣∣∣∣= 2

∣∣∣∣∣∣

1 2 3a b cd e f

∣∣∣∣∣∣

Propiedad 6: Un determinante con dos filas proporcionales es igual a cero.

Supongamos que air = kajr r = 1, 2, . . . , n. Por la propiedad 5 es posible extraer factorcomun de la fila j, queda ası un determinante con dos filas iguales.

Propiedad 7: Escribamos la i-esima fila de det(aij) como

aij = bj + cj j = 1, 2, . . . , n.

Entonces det(aij) es igual a la suma de dos determinantes cuyas filas son, salvo la filai, las mismas que las del original, y la fila i del primer sumando es b1b2 · · · bn y la filai del segundo sumando es c1c2 · · · cn.

Page 19: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.3. PROPIEDADES DEL DETERMINANTE 15

En efecto,

a1α1a2α2 · · · anαn = a1α1a2α2 · · · (bj + cj) · · · anαn

= a1α1 · · · bj · · · anαn+ a1α1 · · · cj · · · anαn

Pero el primer sumando es un termino del determinante original salvo que su fila i hasido reemplazada por b1b2 · · · bn, analogamente para el segundo sumando.

Ejemplo:∣∣∣∣∣∣

3 3 3a b cd e f

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 + 2 2 + 1 0 + 3a b cd e f

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 2 0a b cd e f

∣∣∣∣∣∣+

∣∣∣∣∣∣

2 1 3a b cd e f

∣∣∣∣∣∣

Definicion 1.17 Diremos que la i-esima fila de det(aij) es combinacion lineal de lasdemas filas del determinante si hay constantes k1, k2, . . . , ki−1, ki+1, . . . , kn talesque

aij =i−1∑r=1

krarj +n∑

r=i+1

krarj j = 1, 2, . . . , n

Ejemplo: Consideremos el determinante∣∣∣∣∣∣

a1 a2 a3

b1 b2 b3

a1 + 2b1 a2 + 2b2 a3 + 2b3

∣∣∣∣∣∣

La tercera fila es combinacion lineal de las filas 1 y 2, k1 = 1, k2 = 2, entonces

a3j =2∑

r=1

brarj j = 1, 2, 3.

Nota: Es posible que algunos de los kr sean iguales a cero. En tal caso la fila i escombinacion lineal de algunas de las restantes filas pero con la argucia de tomar losrestantes kr como iguales a cero podemos fingir que es combinacion lineal de todaslas filas. En el caso en que todos los kr menos uno sean iguales a cero, por ejemplokj 6= 0, obtenemos que la fila i, i 6= j es combinacion lineal de la fila j, esto es, la filai es proporcional a la fila j. Se concluye que la proporcionalidad se puede considerarcomo un caso particular de combinacion lineal.

Propiedad 8: Si una de las filas del determinante es combinacion lineal de las demas,el determinante es igual a cero.

Supongamos que la i-esima fila es combinacion lineal de las demas filas. Descomponga-mos el determinante en una suma de determinantes cuyas filas son todas iguales a lasdel determinante original salvo la i-esima, tal como lo permite la propiedad 7. Cadauno de estos, o bien tiene una fila de ceros, o bien tiene dos filas proporcionales, enambos casos el sumando en cuestion es igual a cero.

Page 20: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

16 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Propiedad 9: El determinante no cambia si a los elementos de una fila se agreganlos elementos de otra fila multiplicados por un mismo numero.

Supongamos que a la i-esima fila se le agrega la j-esima multiplicada por k. Obtenemosun determinante cuya i-esima fila es air +kajr, r = 1, 2, . . . , n. Tal como antes usamosla propiedad 7.

Nota: Es claro que el determinante no cambia si a una fila se le agrega una combi-nacion lineal de las demas.

Ejemplo: Calcule

∆ =

∣∣∣∣∣∣am + bp an + bq

cm + dp cn + dq

∣∣∣∣∣∣usando la propiedad 7.

∆ =∣∣∣∣

am anam + dp cn + dq

∣∣∣∣ +∣∣∣∣

bp bqcm + dp cn + dq

∣∣∣∣

=∣∣∣∣

am ancm cn

∣∣∣∣ +∣∣∣∣

am andp dq

∣∣∣∣ +∣∣∣∣

bp bqcm cn

∣∣∣∣ +∣∣∣∣

bp bqdp dq

∣∣∣∣

= 0 + ad

∣∣∣∣m np q

∣∣∣∣ + bc

∣∣∣∣p qm n

∣∣∣∣ + 0 usando la propiedad 3

= −ad

∣∣∣∣p qm n

∣∣∣∣ + bc

∣∣∣∣p qm n

∣∣∣∣

= (bc− ad)∣∣∣∣

p qm n

∣∣∣∣

Ejemplo: Calcule

∆ =

∣∣∣∣∣∣∣∣∣∣

2 0 6 0 45 3 2 2 72 5 7 5 52 0 9 2 77 8 4 2 1

∣∣∣∣∣∣∣∣∣∣Por la propiedad 5

∆ = 2

∣∣∣∣∣∣∣∣∣∣

1 0 3 0 25 3 2 2 72 5 7 5 52 0 9 2 77 8 4 2 1

∣∣∣∣∣∣∣∣∣∣

,

aplicando la propiedad 9 las filas 2, 3, 4, 5 tenemos:

∆ = 2

∣∣∣∣∣∣∣∣∣∣

1 0 3 0 20 3 −13 2 −30 5 1 5 10 0 3 2 30 8 −17 2 −13

∣∣∣∣∣∣∣∣∣∣

Page 21: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.3. PROPIEDADES DEL DETERMINANTE 17

Por definicion de determinante, todos los terminos deben contener exactamente unelemento de la primera columna, luego sobreviven solo aquellos sumandos que con-tienen a a11 = 1 y exactamente un elemento de las filas 2, 3, 4, 5 y un elemento de lascolumnas 2, 3, 4, 5. Entonces un termino tıpico del desarrollo es de la forma

1 · a2α2 · a3α3 · a4α4 · a5α5

cuyo signo esta dado por la sutitucion(

1 2 3 4 51 α2 α3 α4 α5

)

la cual tiene la misma paridad que la sustitucion de grado 4(

2 3 4 5α2 α3 α4 α5

)

(el conjunto M de sımbolos es 2, 3, 4, 5) puesto que 1 no forma ninguna inversion conlos restantes sımbolos. Se concluye que

∆ = 2

∣∣∣∣∣∣∣∣

3 −13 2 −35 1 5 10 3 2 38 −17 2 −13

∣∣∣∣∣∣∣∣= 2

∣∣∣∣∣∣∣∣

3 −13 2 −35 1 5 10 3 2 30 −5 −5 −11

∣∣∣∣∣∣∣∣

=215

∣∣∣∣∣∣∣∣

15 −65 10 −1515 3 15 30 3 2 30 −5 −5 −11

∣∣∣∣∣∣∣∣=

215

∣∣∣∣∣∣∣∣

15 −65 10 −150 68 5 180 3 2 30 −5 −5 −11

∣∣∣∣∣∣∣∣

= 2

∣∣∣∣∣∣

68 5 183 2 3−5 −5 −11

∣∣∣∣∣∣= 2

∣∣∣∣∣∣

63 5 181 2 30 −5 −11

∣∣∣∣∣∣

= −2

∣∣∣∣∣∣

1 2 363 5 180 −5 −11

∣∣∣∣∣∣= −2

∣∣∣∣∣∣

1 2 30 −121 −1710 −5 −11

∣∣∣∣∣∣

= −2∣∣∣∣

121 1715 11

∣∣∣∣ = −2∣∣∣∣

1 −935 11

∣∣∣∣

= −2∣∣∣∣

1 −930 476

∣∣∣∣ = −2 · 476 = −952

Ejemplo: Encuentre las raıces de∣∣∣∣∣∣∣∣

1 1 2 31 2− x2 2 32 3 1 52 3 1 9− x2

∣∣∣∣∣∣∣∣= 0

Para x = 1 y para x = −1 las dos primeras filas quedan iguales luego el polinomio esdivisible por (x − 1)(x + 1). Analogamente para las filas 3 y 4 con x = ±2. Luego eldeterminante (que es un polinomio de grado 4) es de la forma c(x2 − 4)(x2 − 1), nos

Page 22: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

18 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

falta el valor de c. Haciendo x = 0 tenemos

4c =

∣∣∣∣∣∣∣∣

1 1 2 31 2 2 32 3 1 52 3 1 9

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 1 2 30 1 0 02 3 1 50 0 0 4

∣∣∣∣∣∣∣∣Utilizando la misma argumentacion que en el ejercicio anterior vemos que un terminotıpico del determinante es a1α1a2α2a3α3a44, (a44 = 4) luego

4c = 4

∣∣∣∣∣∣

1 1 20 1 02 3 1

∣∣∣∣∣∣= 4

∣∣∣∣∣∣

1 1 20 1 00 1 −3

∣∣∣∣∣∣= 4

∣∣∣∣1 01 −3

∣∣∣∣

luego c = −3.

Ejemplo: Calcule el determinante de la matriz de n× n dada por

aij ={

a si i 6= jx si i = j

Sumando a la primera columna todas las demas queda el siguiente determinante:

ai1 = x + (n− 1)a , i = 1, 2, . . . , n

a1j = a , j = 2, 3, . . . , n

aij = a , i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n

aii = x , i = 2, 3, . . . , n

Luego el determinante es igual a [x+(n−1)a]∆, donde ∆ es el determinante dado por

ai1 = 1 , i = 1, 2, . . . , n

a1j = a , j = 2, 3, . . . , n

aij = a , i 6= j, i = 2, 3, . . . , n, j = 2, 3, . . . , n

aii = x , i = 2, 3, . . . , n

Restemos la primera fila a todas las demas filas, aplicamos la misma argumentacionque en ejercicios anteriores y tenemos que el determinante pedido es [x + (n − 1)a]ddonde d es un determinante de orden (n− 1) dado por

aij ={

0 i 6= jx− a i = j, i = 2, 3, . . . , n

El unico termino distinto de cero de dicho determinante es (x − a)(x − a) · · · (x − a)(n− 1 veces) y su signo esta dado por

(2 3 · · · n2 3 · · · n

)

luego el determinante pedido vale [x + (n− 1)a](x− a)n−1.

Ejemplo: Calcule el determinante de Vandermonde

∆ =

∣∣∣∣∣∣∣∣∣∣∣

1 1 · · · 1a1 a2 · · · an

a21 a2

2 · · · a2n

......

. . ....

an−11 an−1

2 · · · an−1n

∣∣∣∣∣∣∣∣∣∣∣

Page 23: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.4. TEOREMA DE LAPLACE 19

En forma sucesiva restamos a la fila k la fila k − 1 multiplicada por a1, k = n, n −1, n− 2, . . . , 2. Entonces

∆ =

∣∣∣∣∣∣∣∣∣∣∣

1 1 1 · · · 10 a2 − a1 a3 − 1 · · · an − a1

0 a2(a2 − a1) a3(a3 − a1) · · · an(an − a1)...

......

. . ....

0 an−22 (a2 − a1) an−2

3 (a3 − a1) · · · an−2n (an − a1)

∣∣∣∣∣∣∣∣∣∣∣= (a2 − a1)(a3 − a1) · · · (an − a1)d

donde d es un determinante de Vandermonde de orden n− 1.

Por demostrar: El determinante de Vandermonde es igual al producto de todas lasdiferencias posibles ai − aj , 1 ≤ j < i ≤ n.

La afirmacion es verdadera para n = 2 y acabamos de demostrar que si es valida paran− 1 tambien es valida para n.

1.4. Teorema de Laplace

Puesto que es difıcil calcular un determinante usando directamente la definicion, bus-caremos un teorema que reduzca el calculo de un determinante de orden n a uno den − 1, lo cual permite, en principio, remontarse al calculo de determinantes de orden2.

Definicion 1.18 Sea d un determinante de orden n, sea k entero, 1 ≤ k ≤ n− 1. Enla matriz (aij) elegimos arbitrariamente k filas y k columnas. Consideremos la matrizformada por los elementos que estan en las intersecciones de las k filas y k columnaselegidas. Al determinante de orden k de esta matriz se le llama menor de orden kdel determinante d (es el determinante que se obtiene de borrar n − k filas y n − kcolumnas de d).

Ejemplo: Sea

d =

∣∣∣∣∣∣∣∣

a11 a12 a13 a14

a21 a22 a23 a24

a31 a32 a33 a34

a41 a42 a43 a44

∣∣∣∣∣∣∣∣Un menor de orden 1 se obtiene escogiendo la fila 2 y la columna 3, el menor es|a23| = a23.

Un menor de orden 2 se obtiene escogiendo las filas 2,3 y las columnas 2, 4, el menor

es∣∣∣∣

a22 a24

a32 a34

∣∣∣∣.

Si borramos la fila 1 y la columna 1 obtenemos el menor de orden 3 dado por∣∣∣∣∣∣

a22 a23 a24

a32 a33 a34

a42 a43 a44

∣∣∣∣∣∣

Page 24: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

20 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Definicion 1.19 Sea M un menor de orden k de d, 1 ≤ k ≤ n−1. Suprimamos las kfilas y las k columnas en cuyas intersecciones se encuentra M . Las restantes (n − k)filas y (n − k) columnas forman un menor M ′ llamado el menor complementario deM .

En el ejemplo previo, el menor complementario de∣∣∣∣

a22 a24

a32 a34

∣∣∣∣ es∣∣∣∣

a11 a13

a41 a43

∣∣∣∣.

Definicion 1.20 Supongamos que el menor M de orden k se encuentra en las filasi1, i2, . . . , ik y en las columnas j1, j2, . . . , jk, sea M ′ su menor complementario. Si

SM = i1 + i2 + · · ·+ ik + j1 + j2 + · · ·+ jk ,

llamaremos adjunto de M a (−1)SM M ′.

En el ejemplo previo, el adjunto de∣∣∣∣

a22 a24

a32 a34

∣∣∣∣ es

(−1)2+3+2+4

∣∣∣∣a11 a13

a41 a43

∣∣∣∣

Lema 1.21 Sea d un determinante de orden n, sea M un menor de orden k, sea M ′

su menor complementario. Sea A un termino de M (con el signo que tiene en M),sea B un termino de M ′ (con el signo que tiene en M ′). Entonces (−1)SM AB es untermino de d (con el signo que le corresponde en d)

Demostracion: Supongamos que M ′ esta formado por las primeras k filas y primerask columnas. Como SM = 2(1 + 2 + · · · + k), (−1)SM = 1. Sea A = a1α1a2α2 · · · akαk

,su signo esta determinado por la sustitucion

(1 2 3 · · · kα1 α2 α3 · · · αk

),

sea l su numero de inversiones. Un termino cualquiera de M ′ es

B = a(k+1)βk+1a(k+2)βk+2 · · · anβn ,

su signo en M ′ esta dado por(

k + 1 k + 2 · · · nβk+1 βk+2 · · · βn

),

sea l′ su numero de inversiones.

AB tiene exactamente un factor de cada fila y cada columna de d luego es un terminode d. El signo de AB en el producto MM ′ esta determinado por (−1)l+l′ , su signo end esta determinado por la sustitucion

(1 2 · · · k k + 1 k + 2 · · · nα1 α2 · · · αk βk+1 βk+2 · · · βn

).

Pero como los α no pueden formar inversion con los β, ella tiene l + l′ inversiones, susigno en d tambien esta determinado por (−1)l+l′ .

Page 25: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.4. TEOREMA DE LAPLACE 21

Supongamos ahora que M ′ esta formado por las filas i1 < i2 < · · · < ik y las columnasj1 < j2 < · · · < jk. Llevemos el menor M al angulo superior izquierdo, esto es, mediantetrasposiciones de filas y trasposiciones de columnas formamos un nuevo determinantecuyas primeras k filas y primeras k columnas son las k filas y k columnas de M . Paraesto llevamos a cabo

(i1 − 1) + (i2 − 2) + · · ·+ (ik − k) = i1 + i2 + · · ·+ ik − k(k + 1)2

trasposiciones de filas y

(j1 − 1) + (j2 − 2) + · · ·+ (jk − k) = j1 + j2 + · · ·+ jk − k(k + 1)2

trasposiciones de columnas, el nuevo determinante d′ es igual a

(−1)i1+i2+···+ik+j1+j2+···+jk−k(k+1)d ,

pero k(k + 1) es par luego d′ = (−1)SM d.

Puesto que en el proceso indicado no cambian ni las filas ni las columnas que constitu-yen a M ′ ni tampoco su orden relativo, M ′ sigue siendo el menor complementario deM en d′. Sea A un termino de M , B un termino de M ′. Como el orden relativo de lasfilas y columnas de M no ha cambiado, A sigue teniendo el mismo signo como terminode M en la nueva posicion de M , analogamente para B. Entonces, por la primeraparte de la demostracion, AB es un termino de d′. Pero todos los terminos de d′ sonterminos de d si los multiplicamos por (−1)SM puesto que (−1)SM d′ = (−1)2SM d = dluego (−1)SM AB es un termino de d.

El lema nos permite reducir el calculo de un determinante de orden n a un determi-nante de orden n− 1.

Notacion:Sea M = |aij | un menor de 1 × 1 del determinante d. Su menor comple-mentario es de orden (n − 1) y lo designaremos por Mij. Designaremos por Aij =(−1)i+jMij al adjunto de M .

Teorema 1.22 Sea i una fila cualquiera de d. Entonces

d =n∑

j=1

aijAij

Demostracion: Por el lema, cada termino del desarrollo aijAij es un termino de dcon el signo que le corresponde en d. Sea A un termino del desarrollo airAir, si j 6= r,A no puede ser un termino del desarrollo aijAij puesto que A contiene al elemento air

de la i-esima fila en tanto que aijAij contiene al elemento aij de la i-esima fila, j 6= r.

El desarrollo aijAij contiene (n−1)! terminos de d con el signo que les corresponde en

d,n∑

j=1

aijAij contiene n(n−1)! terminos distintos de d con el signo que les corresponde

en d y puesto que d consta de n! terminos se tiene quen∑

j=1

aijAij es d.

Page 26: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

22 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Notacion: Diremos quen∑

j=1

aijAij es el desarrollo del determinante por los adjuntos

de la i-esima fila.

Es obvio que tambien es posible desarrollar el determinante por los adjuntos de unacolumna cualquiera.

Ejemplo: Desarrollar

d =

∣∣∣∣∣∣∣∣∣∣∣∣

3 1 −1 2

−5 1 3 −4

2 0 1 −1

1 −5 3 −3

∣∣∣∣∣∣∣∣∣∣∣∣

por los adjuntos de la tercera fila.

d = (−1)3+1 · 2 ·∣∣∣∣∣∣

1 −1 21 3 −4−5 3 −3

∣∣∣∣∣∣+ (−1)3+2 · 0 ·

∣∣∣∣∣∣

3 −1 2−5 3 −41 3 −3

∣∣∣∣∣∣

+(−1)3+3 · 1 ·∣∣∣∣∣∣

3 1 2−5 1 −41 −5 −3

∣∣∣∣∣∣+ (−1)3+4 · (−1) ·

∣∣∣∣∣∣

3 1 −1−5 1 31 −5 3

∣∣∣∣∣∣

Del ejemplo se concluye que mientras mas ceros tiene la fila, mas facil es el desarrollo.Ası, usando sistematicamente las propiedades del determinante es posible transfor-marlo de modo que quede una fila que tiene un 1 y (n− 1) ceros, ası el calculo de undeterminante de orden n se reduce al calculo de un solo determinante de orden n− 1.

Ejemplo: Sea

d =

∣∣∣∣∣∣∣∣∣∣

−2 5 0 −1 31 0 3 7 −23 −1 0 5 −52 6 −4 1 20 −3 −1 2 3

∣∣∣∣∣∣∣∣∣∣Realice las siguientes transformaciones:

Sume a la segunda fila tres veces la quinta fila.

Reste a la cuarta fila cuatro veces la quinta fila.

Luego desarrolle por los adjuntos de la tercera columna, se obtiene

d = (−1)

∣∣∣∣∣∣∣∣

−2 5 −1 31 −9 13 73 −1 5 −52 18 −7 −10

∣∣∣∣∣∣∣∣

En este ultimo determinante realice las siguientes transformaciones:

Page 27: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.4. TEOREMA DE LAPLACE 23

Sume a la primera fila dos veces la segunda fila.

Reste a la tercera fila tres veces la segunda fila.

Reste a la cuarta fila dos veces la segunda fila.

Luego desarrolle por los adjuntos de la primera columna, se obtiene

d =

∣∣∣∣∣∣

−13 25 1726 −34 −2636 −33 −24

∣∣∣∣∣∣=

∣∣∣∣∣∣

−13 25 170 16 836 −33 −24

∣∣∣∣∣∣

= 8

∣∣∣∣∣∣

−13 25 170 2 136 −33 −24

∣∣∣∣∣∣= 8

{−13

∣∣∣∣2 1−33 −24

∣∣∣∣ + 36∣∣∣∣

25 172 1

∣∣∣∣}

= 8{−13(−48 + 33) + 36(25− 34)} = 8{195− 324} = −8 · 129 = −1032

Corolario 1.23 Sea i 6= j, entoncesn∑

k=1

aikAjk = 0.

Demostracion:n∑

k=1

aijAjk puede interpretarse como el desarrollo por los adjuntos

de la j-esima fila de un determinante igual al original salvo que la j-esima fila esbjk = aik k = 1, 2, . . . , n. Pero este es un determinante cuya i-esima fila y j-esima filason iguales luego vale cero.

Definicion 1.24 Una matriz

a11 a12 · · · a1n

a21 a22 · · · a2n

......

. . ....

an1 an2 · · · ann

se dice triangular superior si aij = 0 siempre que i > j, o bien triangular inferior siaij = 0 siempre que i < j.

Teorema 1.25 El determinante de una matriz triangular (superior o inferior) es igualal producto de los elementos en su diagonal.

Demostracion: Claramente el teorema es cierto si n = 1. Sea d el determinante dela matriz (aij). Supongamos que la matriz es triangular superior y desarrollemos porlos adjuntos de la primera columna, obtenemos

d =n∑

i=1

ai1Ai1 = a11A11 ,

pero A11 es el determinante de la matriz que resulta de eliminar la primera fila yla primera columna, que es tambien triangular superior. Luego si suponemos cierto elteorema para matrices de n−1 filas y n−1 columnas tenemos que A11 = a22a33 · · · ann,de donde se tiene que el teorema es cierto por induccion.

Si la matriz es triangular inferior, su traspuesta es triangular superior y los elementosde su diagonal permanecen invariantes.

Page 28: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

24 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Teorema 1.26 (Laplace) Sea d un determinante de orden n, sea 1 ≤ k ≤ n − 1.Elijamos k filas (o k columnas) del determinante y consideremos todos los menoresde orden k que se pueden formar con dichas k filas (o k columnas). La suma de losproductos de dichos menores por sus respectivos adjuntos es d.

Antes de dar la demostracion veamos un ejemplo. Sea

d =

∣∣∣∣∣∣∣∣∣∣

−4 1 2 −2 10 3 0 1 −52 −3 1 −3 1−1 −1 3 −1 00 4 0 2 5

∣∣∣∣∣∣∣∣∣∣

Desarrollamos por los menores de la primera y tercera columnas ( esto es k = 2 yelegimos las columnas 1 y 3).

d = (−1)1+2+1+3

∣∣∣∣−4 20 0

∣∣∣∣

∣∣∣∣∣∣

−3 −3 1−1 −1 04 2 5

∣∣∣∣∣∣+ (−1)1+3+1+3

∣∣∣∣−4 22 1

∣∣∣∣

∣∣∣∣∣∣

3 1 −5−1 −1 04 2 5

∣∣∣∣∣∣

+(−1)1+4+1+3

∣∣∣∣−4 2−1 3

∣∣∣∣

∣∣∣∣∣∣

3 1 −5−3 −3 14 2 5

∣∣∣∣∣∣+ (−1)1+5+1+3

∣∣∣∣−4 20 0

∣∣∣∣

∣∣∣∣∣∣

3 1 −5−3 −3 1−1 −1 0

∣∣∣∣∣∣

+(−1)2+3+1+3

∣∣∣∣0 02 1

∣∣∣∣

∣∣∣∣∣∣

1 −2 1−1 −1 04 2 5

∣∣∣∣∣∣+ (−1)2+4+1+3

∣∣∣∣0 0−1 3

∣∣∣∣

∣∣∣∣∣∣

1 −2 1−3 −3 14 2 5

∣∣∣∣∣∣

+(−1)2+5+1+3

∣∣∣∣0 00 0

∣∣∣∣

∣∣∣∣∣∣

1 −2 1−3 −3 1−1 −1 0

∣∣∣∣∣∣+ (−1)3+4+1+3

∣∣∣∣2 1−1 3

∣∣∣∣

∣∣∣∣∣∣

1 −2 13 1 −54 2 5

∣∣∣∣∣∣

+(−1)3+5+1+3

∣∣∣∣2 10 0

∣∣∣∣

∣∣∣∣∣∣

1 −2 13 1 −5−1 −1 0

∣∣∣∣∣∣+ (−1)4+5+1+3

∣∣∣∣−1 30 0

∣∣∣∣

∣∣∣∣∣∣

1 −2 13 1 −5−3 −3 1

∣∣∣∣∣∣

Demostracion: Sean i1, i2, . . . , ik las filas escogidas, sea A = a1α1a2α2 · · · anαn untermino cualquiera del determinante d. En A hay exactamente un elemento de cadauna de las filas i1, i2, . . . , ik. Supongamos que ellos estan en las columnas αi1 , αi2 , . . . ,αik

. Consideremos el producto B = ai1αi1ai2αi2

· · · aikαik. B contiene exactamente un

elemento de cada fila y un elemento de cada columna del menor M formado por las filasi1, i2, . . . , ik y las columnas αi1 , αi2 , . . . , αik

. El producto de los restantes factores deA contiene exactamente un elemento de cada fila y un elemento de cada columna delmenor complementario M ′ de M . Se concluye que, al menos en valor absoluto, A es untermino del desarrollo indicado en el enunciado del teorema. El numero de terminosde dicho desarrollo es

(nk

)k!(n − k)! = n! y segun el lema, cada uno es un termino

de d. Pero solo hay uno que contiene los mismos factores que A, si difiriese en signocon A entonces no serıa termino de d. Hemos demostrado que todos los terminos de daparecen entre los indicados en el enunciado del teorema y que estos son exactamenten!, esto prueba el teorema propuesto.

Page 29: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.5. LA REGLA DE CRAMER 25

1.5. La regla de Cramer

Consideremos un sistema de n ecuaciones lineales con n incognitas:

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

...an1x1 + an2x2 + · · ·+ annxn = bn

(1.12)

Sea d el determinante de la matriz del sistema, supondremos que d 6= 0. Si (1.12) escompatible, sea (α1, α2, . . . , αn) una solucion. Entonces

a11α1 + a12α2 + · · ·+ a1nαn = b1

a21α1 + a22α2 + · · ·+ a2nαn = b2

...an1α1 + an2α2 + · · ·+ annαn = bn

(1.13)

Sea j arbitrario, 1 ≤ j ≤ n, multipliquemos la primera igualdad de (1.13) por A1j (eladjunto de a1j), la segunda por A2j , . . . , la enesima por Anj y sumandolas se obtiene

(n∑

i=1

ai1Aij

)α1 +

(n∑

i=1

ai2Aij+

)α2 + · · ·+

(n∑

i=1

ainAij

)αn =

n∑

i=1

biAij

n∑

i=1

aijAij = d y si r 6= j,n∑

i=1

airAij = 0, luego

dαj =n∑

i=1

biAij

Peron∑

i=1

biAij es el desarrollo de un determinante identico a d salvo por su j-esima

columna que es reemplazada por la solumna de los terminos libres b1, b2, . . . , bn. Si

dj ≡n∑

i=1

biAij entonces

αj =dj

d1 ≤ j ≤ n (1.14)

Se concluye que si d 6= 0 y el sistema es compatible entonces la solucion es unica yesta dada por (1.14).

A la inversa, supongamos que d 6= 0 y reemplacemos la n-tupla (d1d , d2

d , . . . , dn

d ) en ellado izquierdo de (1.12). Veamos que sucede en la i-esima ecuacion:

n∑r=1

airdr

d=

1d

n∑r=1

air

n∑s=1

bsAsr =n∑

s=1

[1d

n∑r=1

airAsr

]bs

Pero1d

n∑r=1

airAsr ={

0 si i 6= sdd si i = s

Page 30: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

26 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

luego la ecuacion se satisface para 1 ≤ i ≤ n. Se concluye que αj = dj

d 1 ≤ j ≤ n esuna solucion del sistema de ecuaciones y por lo tanto si d 6= 0 el sistema es compatible,tenemos ası la regla de Cramer:

Teorema 1.27 Si el determinante d de la matriz de un sistema de ecuaciones linealeses distinto de cero, el sistema tiene solucion unica dada por (α1, α2, . . . , αn), αj = dj

d1 ≤ j ≤ n donde dj es identico al determinante d salvo por la j-esima columna que sereemplaza por la columna de los terminos libres.

Nota: Todo sistema homogeneo es compatible (admite siempre la solucion trivial(0, 0, . . . , 0), si d 6= 0 esta es la unica solucion. Se concluye que si un sistema linealhomogeneo de n ecuaciones con n incognitas tiene soluciones distintas de la trivialnecesariamente su determinante d es igual a cero.

Estamos en condiciones de demostrar que si un determinante d es igual a cero al menosuna de sus filas es combinacion lineal de las demas. Para esto consideremos el sistemahomogeneo de n ecuaciones con n incognitas cuya matriz (aij) es aquella cuyas filasson las filas del determinante d. Si aplicamos el metodo de Gauss obtenemos un sis-tema cuyo determinante es igual a cero, puesto que el metodo de eliminacion de Gaussconsiste esencialmente en restar a una ecuacion ciertas combinaciones lineales de lasecuaciones que la preceden y mediante estas operaciones el valor del determinante delsistema no cambia. Esto significa que dicho sistema solo puede ser reducido a un sis-tema trapezoidal, esto es, alguna de las ecuaciones debe haber sido eliminada, puesde lo contrario habrıa sido obtenido un sistema triangular, cuya matriz tendrıa undeterminante distinto de cero pues serıa el producto de los elementos en la diagonal,que serıan todos distintos de cero. Pero para que eso suceda, al menos una de lasecuaciones debe ser combinacion lineal de las demas precisamente porque el metodode eliminacion consiste en restar a una ecuacion ciertas combinaciones lineales de lasecuaciones que la preceden.

La afirmacion tambien es verdadera para las columnas de d puesto que el sistema cuyamatriz es la traspuesta de (aij) tambien tiene determinante igual a cero.

Puesto que un sistema homogeneo que se puede llevar mediante el metodo de Gaussa un sistema trapezoidal admite soluciones no triviales, se concluye tambien que si eldeterminante de un sistema homogeneo es igual a cero dicho sistema tiene solucionesdistintas de la trivial.

Ejemplo: Resolver el sistema

2 1 −5 1 81 −3 0 −6 90 2 −1 2 −51 4 −7 6 0

d =

∣∣∣∣∣∣∣∣

2 1 −5 11 −3 0 −60 2 −1 21 4 −7 6

∣∣∣∣∣∣∣∣= 27

Page 31: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

1.5. LA REGLA DE CRAMER 27

d1 =

∣∣∣∣∣∣∣∣

8 1 −5 19 −3 0 −6−5 2 −1 20 4 −7 6

∣∣∣∣∣∣∣∣= 81 d2 =

∣∣∣∣∣∣∣∣

2 8 −5 11 9 0 −60 −5 −1 21 0 −7 6

∣∣∣∣∣∣∣∣= −108

d3 =

∣∣∣∣∣∣∣∣

2 1 8 11 −3 9 −60 2 −5 21 4 0 6

∣∣∣∣∣∣∣∣= −27 d4 =

∣∣∣∣∣∣∣∣

2 1 −5 81 −3 0 90 2 −1 −51 4 −7 0

∣∣∣∣∣∣∣∣= 27

α1 = 3 α2 = −4 α3 = −1 α4 = 1

Ejemplo: Dado el sistema

λ 1 2 0

1 0 1 0

0 −1 λ 0

encuentre los valores de λ para los cuales el sistema admite una solucion no trivial.

Necesariamente ∣∣∣∣∣∣

λ 1 21 0 10 −1 λ

∣∣∣∣∣∣= 0

Entonces

λ

∣∣∣∣0 1−1 λ

∣∣∣∣−∣∣∣∣

1 2−1 λ

∣∣∣∣ = 0 , λ− (λ + 2) = 0

luego para cualquier valor de λ el sistema admite solo la solucion trivial.

Page 32: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

28 CAPITULO 1. SISTEMAS DE ECUACIONES LINEALES

Page 33: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Capıtulo 2

Relaciones de dependencialineal

2.1. El espacio vectorial Rn

Para construir la teorıa general de los sistemas de ecuaciones lineales introduciremosun objeto algebraico auxiliar. Sea n un natural arbitrario, llamaremos “espacio vec-torial n-dimensional” y lo designaremos por Rn a la siguiente estructura algebraica:sus elementos seran todas las n-tuplas α = (a1, a2, . . . , an) de numeros reales. Diremosque dichas n-tuplas son vectores de Rn, nos referiremos a ellas como vectores a secas.Por ejemplo, R2 es el conjunto de los pares ordenados de numeros reales, R3 es el con-junto de los trıos ordenados de numeros reales. Los numeros a1, a2, . . . , an se llamanlas componentes de la n-tupla.

Diremos que α = (a1, a2, . . . , an), β = (b1, b2, . . . , bn) son iguales si y solo si ai = bi

i = 1, 2, . . . , n.

En Rn definimos las siguientes operaciones:

Sean α = (a1, a2, . . . , an), β = (b1, b2, . . . , bn), llamaremos suma de los vectores α y βal vector

α + β = (a1 + b1, a2 + b2, . . . , an + bn)

De la definicion de suma y de la conmutatividad y asociatividad de la suma de numerosvemos que la suma de vectores es conmutativa y asociativa:

α + β = β + α, ∀α, β ∈ Rn

α + (β + γ) = (α + β) + γ, ∀α, β, γ ∈ Rn

Llamaremos vector nulo a 0 = (0, 0, . . . , 0), es claro que es el unico vector de Rn quetiene la siguiente propiedad:

α + 0 = α ∀α ∈ Rn

Llamaremos inverso aditivo del vector α = (a1, a2, . . . , an) a

−α = (−a1,−a2, . . . ,−an)

29

Page 34: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

30 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

y es el unico vector tal que α + (−α) = 0. Al vector

α + (−β) = (a1 − b1, a2 − b2, . . . , an − bn)

lo llamaremos la diferencia de los vectores α y β, se anota simplemente como α− β.

Sea α ∈ Rn, k un numero real, llamaremos producto del vector α por el numero real kal vector

kα ≡ αk = (ka1, ka2, . . . , kan)

Es evidente que la operacion tiene las siguientes propiedades:

i.- 1 · α = α ∀α ∈ Rn

ii.- k(α + β) = kα + kβ ∀α, β ∈ Rn, ∀ k ∈ Riii.- (k1 + k2)α = k1α + k2α ∀α ∈ Rn,∀ k1, k2 ∈ Riv.- k1(k2α) = (k1k2)α ∀α ∈ Rn,∀ k1, k2 ∈ REl lector puede verificar que 0 · α = 0, (−1)α = −α para todo α ∈ Rn, y si kα = 0entonces k = 0 o α = 0.

2.2. Dependencia lineal

Definicion 2.1 Sean α1, α2, . . . , αs ∈ Rn. Diremos que el vector β es combinacionlineal de los vectores α1, α2, . . . , αs si existen numeros reales l1, l2, . . . , ls tales que

β =s∑

i=1

liαi

Definicion 2.2 Diremos que los vectores α1, α2, . . . , αs son linealmente dependientessi hay numeros reales k1, k2, . . . , ks no todos nulos tales que

s∑

i=1

kiαi = 0

En caso contrario diremos que los vectores α1, α2, . . . , αs son linealmente indepen-dientes.

El conjunto de vectores es linealmente independiente si y solo si la unica combinacionlineal de ellos que es igual a cero es la trivial, esto es,

0 · α1 + 0 · α2 + · · ·+ 0 · αn

(aquella en que todos los ki son cero).

Vemos que todo conjunto de vectores que contiene al vector cero es linealmente de-pendiente, si αi = 0 tomemos kj = 0 si j 6= i, ki 6= 0 y se tiene

0 · α1 + 0 · α2 + · · ·+ kiαi + · · ·+ 0 · αn = 0

Page 35: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.3. DIMENSION DEL ESPACIO VECTORIAL RN 31

Teorema 2.3 El conjunto de vectores α1, α2, . . . , αs, s ≥ 2 es linealmente dependi-ente si y solo si al menos uno de ellos es combinacion lineal de los otros.

Demostracion: Supongamos que hay k1, k2, . . . , ks no todos nulos tales ques∑

i=1

kiαi =

0. Sin perdida de generalidad podemos suponer que k1 6= 0. Entonces

α1 =s∑

i=2

−ki

k1αi .

A la inversa, supongamos que hay l2, l3, . . . , ls tales que α1 =s∑

i=2

l2α2. Entonces

α1 −s∑

i=2

l2α2 = 0 ,

tome k1 = 1, ki = −li, i = 2, 3, . . . , s.

Ejemplo: En R3 sean

α1 = (5, 2, 1) α2 = (−1, 3, 3) α3 = (9, 7, 5) α4 = (3, 8, 7)

Es facil ver que 4α1−α2− 3α3 +2α4 = 0, el sistema de cuatro vectores es linealmentedependiente. . Tambien 2α1 + α2 − α3 = 0 luego α1, α2, α3 tambien son linealmentedependientes como tambien lo son α2, α3, α4.

Nota: Supongamos que de los s vectores α1, α2, . . . , αs hay r de ellos linealmentedependientes, r < s, entonces el conjunto α1, α2, . . . , αs es linealmente dependiente. Enefecto, sin perdida de generalidad podemos suponer que α1, α2, . . . , αr son linealmentedependientes y por lo tanto hay k1, k2, . . . , kr no todos nulos tales que

k1α1 + · · ·+ krαr = 0 .

Elija kr+1 = kr+2 = · · · = ks = 0.

Es obvio que si un conjunto de vectores es linealmente independiente, todo subconjuntode el es linealmente independiente.

Notacion: Cuando un sistema de vectores es linealmente dependiente diremos que esl.d., si es linealmente independiente diremos que es l.i.

2.3. Dimension del espacio vectorial Rn

Es claro que en Rn hay sistemas de n vectores que son l.i., considere el sistema

e1 = (1, 0, 0, . . . , 0)e2 = (0, 1, 0, . . . , 0)

...en = (0, 0, 0, . . . , 1)

Page 36: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

32 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

n∑

i=1

kiei = 0 ⇒ (k1, k2, . . . , kn) = 0 = (0, 0, . . . , 0)

luego ki = 0, i = 1, 2, . . . , n.

Teorema 2.4 Sean α1, α2, . . . , αs ∈ Rn, s > n. Entonces el conjunto es l.d.

Demostracion: Sean αi = (ai1, ai2, . . . , ain), i = 1, 2, . . . , s y supongamos ques∑

i=1

kiαi = 0. Entonces

s∑

i=1

(kiai1, kiai2, . . . , kiain) = (k1a11, k1a12, . . . , k1a1n) +

(k2a21, k2a22, . . . , k2a2n) +...

(ksas1, k2as2, . . . , ksasn)

=

(s∑

i=1

kiai1,

s∑

i=1

kiai2, . . . ,

s∑

i=1

kiain

)= 0

Obtenemos ası un sistema lineal homogeneos∑

i=1

aijki = 0 j = 1, 2, . . . , n (2.1)

para las variables k1, k2, . . . , ks.

Sabemos que (2.1) es compatible, como el numero de incognitas es mayor que el numerode ecuaciones (s > n), al aplicar el metodo de Gauss el sistema queda reducido a laforma trapezoidal y por lo tanto tiene soluciones no triviales.

Del teorema se concluye que un sistema l.i. de vectores en Rn consta a lo mas de nvectores (ya vimos que hay sistemas l.i. que constan exactamente de n vectores).

Definicion 2.5 Sean α1, α2, . . . , αr un sistema de vectores l.i. en Rn. Diremos queel sistema es linealmente independiente maximal si al agregar a el cualquier β ∈ Rn,el nuevo sistema α1, α2, . . . , αr, β es l.d.

De lo dicho anteriormente se concluye que todo sistema l.i. en Rn que consta de nvectores es linealmente independiente maximal.

Sea α1, α2, . . . , αn l.i. en Rn, sea β ∈ Rn arbitrario. Puesto que α1, α2, . . . , αn esmaximal, hay constantes k1, k2, . . . , kn+1, no todas nulas, tales que

n∑

i=1

kiαi + kn+1β = 0

Si kn+1 = 0 entonces al menos uno entre k1, k2, . . . , kn es distinto de cero lo cual escontradiccion. Se concluye que kn+1 6= 0 y β es combinacion lineal de los vectores α1,α2, . . . , αn. Se concluye que

Page 37: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.3. DIMENSION DEL ESPACIO VECTORIAL RN 33

Si α1, α2, . . . , αn es l.i. todo vector de Rn puede expresarse como combinacionlineal de ellos. Decimos que el sistema de vectores α1, α2, . . . , αn genera a Rn.

Por ejemplo, el sistema de vectores

e1 = (1, 0, 0, . . . , 0)e2 = (0, 1, 0, . . . , 0)

...en = (0, 0, 0, . . . , 1)

genera a Rn.

Si α = (a1, a2, . . . , an) entonces α =n∑

i=1

aiei.

Sea α1, α2, . . . , αr l.i., y supongamos que no es maximal. Entonces hay αr+1 ∈ Rn talque α1, α2, . . . , αr, αr+1 es l.i. Si no es maximal, hay αr+2 ∈ Rn tal que α1, α2, . . . ,αr, αr+1, αr+2 es l.i. Sabemos que el proceso debe terminar porque a lo mas puedencompletarse n vectores l.i. Entonces todo sistema l.i. esta contenido en un sistemamaximal, en particular un vector distinto de cero esta contenido en un sistema lin-ealmente independiente maximal. Se concluye que hay infinitos sistemas linealmenteindependientes maximales en Rn.

¿Hay sistemas linealmente independientes maximales que constan de menos de n vec-tores ? La respuesta es negativa, todos constan exactamente de n vectores. Nos abo-caremos a responder la pregunta recien formulada.

Definicion 2.6 Diremos que el vector β se expresa linealmente mediante el sistemade vectores α1, α2, . . . , αr si β es combinacion lineal de ellos.

Es claro que si β se expresa linealmente mediante un subsistema α1, α2, . . . , αr tam-bien se expresa linealmente mediante α1, α2, . . . , αr.

Definicion 2.7 Diremos que el sistema de vectores β1, β2, . . . , βs se expresa lineal-mente mediante el sistema de vectores α1, α2, . . . , αr si cada uno de los vectores β1,β2, . . . , βs es combinacion lineal de ellos.

Teorema 2.8 Supongamos que el sistema de vectores β1, β2, . . . , βs se expresa lin-ealmente mediante el sistema de vectores α1, α2, . . . , αr y que el sistema de vectoresγ1, γ2, . . . , γt se expresa linealmente mediante el sistema de vectores β1, β2, . . . , βs.Entonces el sistema γ1, γ2, . . . , γt se expresa linealmente mediante el sistema α1, α2,. . . , αr.

Demostracion: Sea

γj =s∑

i=1

ljiβi j = 1, 2, . . . , t

βi =r∑

k=1

βikαk i = 1, 2, . . . , s entonces

γj =s∑

i=1

lji

r∑

k=1

βikαk =r∑

k=1

(s∑

i=1

ljiβik

)αk j = 1, 2, . . . , t

Page 38: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

34 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Definicion 2.9 Dos sistemas de vectores se dicen equivalentes si cada uno se expresalinealmente mediante el otro.

Del teorema y la definicion se tiene que si dos sistemas son equivalentes y un vector αse expresa linealmente mediante uno de ellos entonces tambien se expresa linealmentemediante el otro.

Teorema 2.10 Sea α1, α2, . . . , αr un sistema de vectores l.i. en Rn y supongamosque se expresa linealmente mediante el sistema de vectores β1, β2, . . . , βs. Entoncesr ≤ s.

Demostracion: Supongamos que r > s. Por hipotesis

αi =s∑

j=1

aijβj i = 1, 2, . . . , r

En Rs definimos los vectores

γ1 = (a11, a12, . . . , a1s)γ2 = (a21, a22, . . . , a2s)

...γr = (ar1, ar2, . . . , ars)

Como r > s el conjunto de vectores γ1, γ2, . . . , γr es l.d. y por lo tanto hay k1, k2,. . . , kr no todos nulos tales que

r∑

l=1

klγl = 0

Igualando las componentes a cero tenemos quer∑

i=1

kiaij = 0 j = 1, 2, . . . , s

Peror∑

i=1

kiαi =r∑

i=1

ki

s∑

j=1

aijβj =s∑

j=1

(r∑

i=1

kiaij

)βj = 0

lo cual es contradiccion luego r ≤ s.

Corolario 2.11 Sean α1, α2, . . . , αr y β1, β2, . . . , βs sistemas equivalentes en Rn

ambos l.i. Entonces r = s.

Por definicion se tiene que si α1, α2, . . . , αr y β1, β2, . . . , βs son sistemas linealmenteindependientes maximales en Rn entonces ellos son equivalentes y por el corolario setiene que r = s. Como hay sistemas maximales de n vectores se tiene que r = s = n.

Todos los sistemas l.i. maximales en Rn constan de n vectores y hay infinitos de ellos.Diremos que un sistema l.i. maximal en Rn es una base de Rn y el que todas las basesde Rn constan del mismo numero n de vectores se expresa diciendo que Rn tiene di-mension n.

Page 39: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.4. RANGO DE UN SISTEMA DE VECTORES 35

2.4. Rango de un sistema de vectores

Sea α1, α2, . . . , αn una base de Rn, sea α = (a1, a2, . . . , an). Entonces hay c1, c2, . . . ,

cn tales que α =n∑

i=1

ciαi. Los numeros ci se llaman las componentes del vector α con

respecto a la base α1, α2, . . . , αn. Si

α1 = (b11, . . . , b1n)α2 = (b21, . . . , b2n)

...αn = (bn1, . . . , bnn)

entoncesn∑

k=1

ckαk =n∑

k=1

ck(bk1, bk2, . . . , bkn) = (a1, a2, . . . , an)

es equivalente an∑

k=1

ckbkj = aj j = 1, 2, . . . , n (2.2)

luego para encontrar las componentes del vector α con respecto a la base α1, α2, . . . ,αn debemos resolver el sistema (2.2). Es claro que un vector tiene un juego distintode componentes en cada base pero tal juego es unico. En efecto, si

α =n∑

i=1

ciαi =n∑

i=1

c′iαi ⇒n∑

i=1

(ci − c′i)αi = 0

entonces ci = c′i porque los α1, α2, . . . , αn son l.i.

Notese que si queremos encontrar las componentes del vector 0 en la base α1, α2, . . . ,αn tenemos que resolver el sistema

n∑

k=1

ckbkj = 0 j = 1, 2, . . . , n (2.3)

Puesto que se espera que (2.3) solo tenga la solucion trivial necesariamente debe tenerseque det(bij) 6= 0. A la inversa, si det(bij) 6= 0 entonces (2.3) solo tiene la solucion trivialy

n∑

k=1

ckαk = 0

implica ck = 0, k = 1, 2, . . . , n. Esto demuestra que

Teorema 2.12 El conjunto de vectores α1, α2, . . . , αn es l.i. si y solo si det(bij) 6= 0.

La base e1, e2, . . . , en se llama la base estandar de Rn, en ella

α =n∑

k=1

akek

Page 40: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

36 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

esto es, las componentes del vector α con respecto a la base estandar coinciden conlas componentes de la n-tupla (a1, a2, . . . , an). Esta es la unica base para la cual estosucede. Si hubiese una base para la cual ck = ak, k = 1, 2, . . . , n para todos los vectoresde Rn, esto deberıa ser cierto en particular para e1, e2, . . . , en.

Definamos el siguiente sımbolo llamado “delta de Kronecker”

δij ={

1 si i = j0 si i 6= j

Entonces

n∑

k=1

ckαk =n∑

k=1

ck(bk1, bk2, . . . , bkn) = ei = (δi1, δi2, . . . , δin)

Pero queremos que ck = δik para k = 1, 2, . . . , n luego

n∑

k=1

δik(bk1, bk2, . . . , bkn) = (δi1, δi2, . . . , δin) .

En el miembro izquierdo δik = 0 si k 6= i, δii = 1 luego

(bi1, bi2, . . . , bin) = (δi1, δi2, . . . , δin)

luego αi = ei, i = 1, 2, . . . , n.

Definicion 2.13 Sea α1, α2, . . . , αr un sistema de vectores en Rn. Diremos queel subsistema αi1 , αi2 , . . . , αis , s < r (aij ∈ {α1, α2, . . . , αr}, j = 1, 2, . . . , s) eslinealmente independiente maximal con respecto al sistema α1, α2, . . . , αr si el sistemaαi1 , αi2 , . . . , αis , β con β 6= αij j = 1, 2, . . . , s, β ∈ {α1, α2, . . . , αn} es l.d.

Nota: Si α1, α2, . . . , αr es l.i. tambien lo consideramos como un subsistema lineal-mente independiente maximal.

Dos subsistemas como los recien definidos tienen el mismo numero de vectores. Enefecto, sea α1, α2, . . . , αr un sistema l.d. Podemos suponer sin perdida de generali-dad que α1, α2, . . . , αs es subsistema linealmente independiente maximal. Queremosdemostrar que

α1, α2, . . . , αr (2.4)

yα1, α2, . . . , αs (2.5)

son equivalentes. Vemos que αs+1, αs+2, . . . , αr se expresan linealmente mediante(2.5) porque (2.5) es maximal y αi con 1 ≤ i ≤ s es

αi = 0 · α1 + 0 · α2 + · · ·+ 1 · αi + · · ·+ 0 · αs

ası que tambien se expresa linealmente mediante (2.5) y por lo misma razon (2.5) seexpresa linealmente mediante (2.4). Entonces (2.4) es equivalente a cualquiera de sussubsistemas linealmente independientes y por transitividad ellos son equivalentes entresı. Por teorema previo ellos tienen el mismo numero de vectores.

Page 41: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 37

Definicion 2.14 Sea α1, α2, . . . , αr un sistema de vectores en Rn. Al numero devectores de un subsistema linealmente independiente maximal cualquiera se le llamarango del sistema α1, α2, . . . , αr.

Teorema 2.15 Seanα1, α2, . . . , αr (2.6)

yβ1, β2, . . . , βs (2.7)

dos sistemas de vectores en Rn. Sea k el rango el primer sistema y l el rango del segun-do. Si (2.6) es expresa linealmente mediante (2.7) entonces k ≤ l y si son equivalentes,k = l.

Demostracion: Seaαi1 , αi2 , . . . , αik

(2.8)

linealmente independiente maximal en (2.6) y sea

βj1 , βj2 , . . . , βjl(2.9)

linealmente independiente maximal en (2.7).

Tenemos que (2.8) y (2.6) son equivalentes y tambien (2.9) y (2.7). Como (2.6) seexpresa linealmente mediante (2.7) entonces (2.8) se expresa linealmente mediante(2.7) y por consiguiente se expresa linealmente mediante (2.9). Pero el rango de (2.8)es igual al rango de (2.6) y el rango de (2.7) es igual al rango de (2.9). Por teoremaprevio, como (2.8) es l.i. entonces el rango de (2.8) es menor o igual al rango de (2.9),esto es, k ≤ l. Si (2.6) y (2.7) son equivalentes entonces l ≤ k luego k = l.

2.5. Rango de matrices y dependencia lineal

El problema de discernir la dependencia o independencia lineal de un sistema de vec-tores en Rn, sean ellos

αi = (ai1, ai2, . . . , ain) i = 1, 2, . . . , r

se reduce a resolver la ecuacion vectorialr∑

i=1

ki(ai1, ai2, . . . , ain) = (0, 0, . . . , 0)

la cual escrita en componentes se reduce al siguiente sistema lineal homogeneo:r∑

i=1

kiaij = 0 j = 1, 2, . . . , n (2.10)

Entonces el sistema α1, α2, . . . , αr es l.d. si y solo si (2.10) tiene soluciones no triviales.

Ejemplo: En R4 sean

α1 = (0, 1,−1, 1)α2 = (2, 1, 1, 0)α3 = (1, 1, 1, 1)

Page 42: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

38 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Entoncesk1(0, 1,−1, 1) + k2(2, 1, 1, 0) + k3(1, 1, 1, 1) = (0, 0, 0, 0)

es equivalente al sistema

2k2 + k3 = 0k1 + k2 + k3 = 0−k1 + k2 + k3 = 0k1 + k3 = 0

De la segunda y tercera ecuacion se tiene 2k1 = 0, de la cuarta k3 = 0 y de la primerak2 = 0 luego el sistema tiene solo la solucion trivial. α1, α2, α3 son l.i.

Abordaremos el mismo problema por otro metodo. Sea A = (aij) una matriz de s filasy n columnas (matriz de s× n). Consideremos los vectores

αi = (a1i, a2i, . . . , asi) i = 1, 2, . . . , n

Este sistema de vectores son las columnas de A miradas como vectores en Rs. Lla-maremos rango de la matriz A al rango del sistema α1, α2, . . . , αn.

Es natural pensar que podrıamos haber usado las filas de A para dar la misma defini-cion, que en justicia deberıamos hablar del rango fila de A y rango columna de A.Posteriormente descubriremos que ambos son iguales y por lo tanto es irrelevante si seeligen columnas o filas de A para dar la definicion de rango de A.

Sea k natural, sea k ≤ mın(s, n). Nos interesamos por los valores de k par los cualeshay menores de orden k de la matriz A que son distintos de cero, en particular, porel mayor de estos k. Diremos que k ≤ mın(s, n) es el mayor orden de menor no nulode la matriz A si hay un menor de orden k de A que es distinto de cero y todos losmenores de orden r, k < r ≤ mın(s, n) son iguales a cero. Por ejemplo, si

A =

1 2 1 00 −1 1 20 3 2 10 −2 2 4

,

es claro que det A = 0 luego k < 4.

Consideremos el menor∣∣∣∣∣∣

1 2 10 −1 10 3 2

∣∣∣∣∣∣=

∣∣∣∣−1 13 2

∣∣∣∣ = −2− 3 = −5

luego k = 3.

Notese que si todos los menores de orden k de A son cero, todos los menores de ordensuperior son cero. Consideremos un menor cualquiera de orden k + j, k < k + j ≤mın(s, n). Lo desarrollamos por los menores de orden k usando el teorema de Laplace.

Teorema 2.16 El mayor orden r de menor no nulo de la matriz A es igual al rangode A.

Page 43: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 39

Demostracion: Sabemos que hay menor de orden r que es distinto de cero y quetodos los menores de orden superior valen cero. Supondremos (para simplificar lanotacion) que el menor formado por las r primeras filas y las r primeras columnasde A es distinto de cero. Llamaremos D a este menor. Consideremos las r primerascolumnas de A como vectores de Rs. Sea

αi = (a1i, a2i, . . . , asi) , i = 1, 2, . . . , r

y supongamos quer∑

j=1

kiαi = 0, esto es,

r∑

i=1

ki(a1i, a2i, . . . , asi) = (0, 0, . . . , 0) .

En componentes se tiener∑

j=1

kiaji = 0 j = 1, 2, . . . , n (2.11)

Supongamos que el sistema (2.11) tiene solucion no trivial. Entonces el sistemar∑

i=1

kiaji = 0 j = 1, 2, . . . , r

tiene solucion no trivial y por lo tanto su determinante es distinto de cero. Pero sudeterminante es D luego hemos demostrado que las r primeras columnas de A son l.i.En general, hemos demostrado que si Mr es un menor de orden r de la matriz, las rcolumnas de la matriz que pasan por el menor A son l.i.

Sea ∆i el siguiente menor de orden r + 1 de la matriz A

∆i =

∣∣∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1r a1l

a21 a22 · · · a2r a2l

......

. . ....

...ar1 ar2 · · · arr arl

ai1 ai2 · · · air ail

∣∣∣∣∣∣∣∣∣∣∣

∆i se llama un menor “orlado” de D y se obtiene “pegando” a D los r primeroselementos de la elesima columna, r < l ≤ n, los r primeros elementos de una fila icualquiera, 1 ≤ i ≤ s y el elemento ail.

Si se tiene que 1 ≤ i ≤ r, ∆i tiene dos filas iguales y por lo tanto vale cero y sir < i ≤ s, ∆i es un menor de orden r + 1 de la matriz A y por hipotesis vale cero.Luego ∆i = 0 para todo i. Desarrollando ∆i por los adjuntos de la ultima fila se tiene

r∑

j=1

aijAij + ailAil = 0

pero Aij no incluye a la ultima fila de ∆i luego es independiente de i en magnitud ysu signo en ∆i esta dado por (−1)(r+1)+j y tampoco depende de i. Para enfatizar estoanotaremos Aj = Aij , en particular Ail = D, luego

ai1A1 + ai2A2 + · · ·+ airAr + ailD = 0

Page 44: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

40 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

y como D 6= 0 entonces

ail =r∑

j=1

kjaij , kj = −Aj

D, j = 1, 2, . . . , r (2.12)

Pero (2.12) es verdadero para cualquier i, 1 ≤ i ≤ s y k1, k2, . . . , kr son independientesde i. Luego (2.12) dice que la i-esima columna de la matriz A es combinacion lineal delas r primeras columnas de A. Se concluye que las r primeras columnas de A formanun sistema linealmente independiente maximal del sistema de columnas de A miradascomo vectores de Rs. Por definicion, se tiene que el rango de A es igual a r.

Nota: Debemos hacer notar que en la demostracion anterior no usamos que todos losmenores de orden r +1 son cero, sino que los menores orlados de orden r +1 de D soncero, esta observacion simplifica el calculo del rango de A.

Para calcular el rango de una matriz A de s × n tenemos que desarrollar el siguienteproceso:

i.- Si la matriz tiene algun elemento aij 6= 0, su rango es por lo menos 1. Si todoslos menores orlados de orden 2 del menor |aij | son cero entonces su rango es 1.

ii.- Si algun menor orlado de orden 2 de |aij | es distinto de cero, sea D2 este menor,calculamos todos los menores orlados de orden 3 de D2, si todos valen cero, elrango de la matriz es 2.

iii.- Si algun menor orlado de orden 3 de D2 es distinto de cero, sea D3 dicho menor,procedemos a los menores orlados de orden 4 de D3, . . .

iv.- El proceso termina cuando encontramos un menor Dk de orden k distinto de ceroy tal que todos sus menores orlados de orden k + 1 valen cero.

Ejemplo:

A =

2 −4 3 1 01 −2 1 −4 20 1 −1 3 14 −7 4 −4 5

s = 4, n = 5, luego el rango de A puede ser a lo mas 4.

a11 = 2 6= 0, sea D2 =∣∣∣∣

2 −41 −2

∣∣∣∣. D2 = 0, pero esto no significa que A tenga rango 1,

podemos tomar por ejemplo D2 =∣∣∣∣

2 31 1

∣∣∣∣ = −1 6= 0. Sea

D3 =

∣∣∣∣∣∣

2 3 11 1 −40 −1 3

∣∣∣∣∣∣= −12 6= 0

Calculemos los orlados de D3. Ellos son

O1 =

∣∣∣∣∣∣∣∣

2 3 1 −41 1 −4 −20 −1 3 14 4 −4 −7

∣∣∣∣∣∣∣∣O2 =

∣∣∣∣∣∣∣∣

2 3 1 01 1 −4 20 −1 3 14 4 −4 5

∣∣∣∣∣∣∣∣

Page 45: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.5. RANGO DE MATRICES Y DEPENDENCIA LINEAL 41

Pero O1 = O2 = 0 luego el rango de la matriz es 3 y las tres primeras columnas formanun sistema linealmente independiente maximal del sistema de columnas de A.

Nota: Si en la demostracion del teorema anterior el menor D no consistiera en lasprimeras r filas y las primeras r columnas sino que de r filas y r columnas cualesquiera,el menor orlado ∆1 podrıa no ser un menor del determinante puesto que la columnai-esima que se coloca al final podrıa no ser la ultima de las columnas, es decir, lascolumnas podrıan quedar en un orden distinto al orden que tienen en la matriz A(como el menor orlado O1 en el ejemplo anterior). Lo mismo puede suceder con la filai-esima. Sin embargo, el orden de las columnas en el determinante no puede alterar sumagnitud sino que unicamente su signo, de modo que si todos los menores de ordenr + 1 son cero, el menor orlado ∆i debe ser cero tambien.

Ejemplo: Sean α1 = (2,−2,−4), α2 = (1, 9, 3), α3 = (−2,−4, 1), α4 = (3, 7,−1).Buscamos un subsistema linealmente independiente maximal del sistema α1, α2, α3,α4. Para ello, formemos una matriz de 3× 4 cuyas columnas son estos vectores

A =

2 1 −2 3−2 9 −4 7−4 3 1 −1

y calculamos su rango. Claramente∣∣∣∣

2 1−2 9

∣∣∣∣ 6= 0. Sus orlados son

O1 =

∣∣∣∣∣∣

2 1 −2−2 9 −4−4 3 1

∣∣∣∣∣∣=

∣∣∣∣∣∣

0 10 −6−2 9 −40 −15 9

∣∣∣∣∣∣= 2

∣∣∣∣10 −6−15 9

∣∣∣∣ = 0

O2 =

∣∣∣∣∣∣

2 1 3−2 9 7−4 3 −1

∣∣∣∣∣∣=

∣∣∣∣∣∣

0 10 10−2 9 70 −15 −15

∣∣∣∣∣∣= 2

∣∣∣∣10 10−15 −15

∣∣∣∣ = 0

luego el rango de A es 2 y α1, α2 forman un subsistema linealmente independientemaximal.

Teorema 2.17 Sea A una matriz de s×n. El maximo numero de filas l.i. de A miradascomo vectores en Rn es igual al maximo numero de columnas l.i. de A miradas comovectores en Rs.

Demostracion: Consideremos At (la matriz traspuesta de A). Puesto que el valor deun determinante no cambia cuando se traspone se tiene que rango A = rango At. Pero

rango fila de A = rango columna de At = rango At = rango A = rango columna de A

Ejemplo: Consideremos el sistema homogeneo

1 2 1 3 04 −1 5 −6 01 −3 −4 −7 02 −1 −1 0 0

Page 46: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

42 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Queremos saber si tiene soluciones distintas de la trivial. Sea A la matriz del sistema,

D2 =∣∣∣∣

1 24 −1

∣∣∣∣ 6= 0. Sea

O1 =

∣∣∣∣∣∣

1 2 14 −1 51 −3 −4

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 2 10 −9 10 −5 −5

∣∣∣∣∣∣6= 0

Consideremos el unico orlado de O1:∣∣∣∣∣∣∣∣

1 2 1 34 −1 5 −61 −3 −4 −72 −1 −1 0

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 2 1 30 −9 1 −180 −5 −5 −100 −5 −3 −6

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣

−9 1 −18−5 −5 −100 2 4

∣∣∣∣∣∣

= −10

∣∣∣∣∣∣

−9 1 −181 1 20 1 2

∣∣∣∣∣∣= −10

∣∣∣∣∣∣

−9 1 −181 0 00 1 2

∣∣∣∣∣∣

= 10∣∣∣∣

1 −181 2

∣∣∣∣ = 200 6= 0

Luego el rango fila de A es 4, las cuatro ecuaciones del sistema son l.i. Luego, alaplicar el metodo de Gauss, ninguna puede desaparecer y el sistema queda en la formatriangular y por lo tanto tiene solo la solucion trivial.

Nota: Podrıamos haber calculado directamente el determinante del sistema y haberverificado que era distinto de 0 y por teorema previo, cuya demostracion depende dela regla de Cramer, haber dicho de inmediato que tenıa solo la solucion trivial. Hemosdemostrado que se puede concluir lo mismo sin conocer la regla de Cramer.

2.6. Equivalencia de matrices

Si A es una matriz de n×n tal que su determinante d es igual a cero, el rango maximode A puede ser (n− 1) luego las n filas de la matriz son l.d. Luego si un determinanted vale cero, entre sus filas (columnas) existe una relacion de dependencia lineal. Estoya lo sabıamos, pero el metodo del rango nos permite decir cuantas y cuales filas son l.i.

Existe otro metodo mas simple para calcular el rango de una matriz.

Definicion 2.18 Se llaman transformaciones elementales de una matriz A a las sigu-ientes:

a) La trasposicion de dos filas (o columnas)

b) La multiplicacion de una fila (o una columna) por un numero distinto de cero.

c) La suma a una fila (o a una columna) de otra fila (o columna) multiplicada por unnumero.

Teorema 2.19 Las transformaciones elementales de una matriz no alteran su rango.

Demostracion:

Page 47: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.6. EQUIVALENCIA DE MATRICES 43

a) El orden en el cual se consideren las filas no altera su dependencia lineal.

b) Sea α1, α2, . . . , αr un sistema linealmente independiente maximal de filas. Seanc1, c2, . . . , cr r numeros arbitrarios distintos de cero. Supongamos que los vectoresβi = ciαi i = 1, 2, . . . , r son l.d. Entonces hay constantes ki i = 1, 2, . . . , r no todas

nulas tales quer∑

i=1

kiβi = 0, esto es,

r∑

i=1

(kici)αi = 0

lo cual es una contradiccion.

Sea α una fila cualquiera, entonces

α =r∑

i=1

liαi =r∑

i=1

lici

βi

luego el sistema β1, β2, . . . , βr es maximal.

c) Sean α1, α2, . . . , αs las filas de la matriz, sean

α1, α2, . . . , αi + kαj , αi+1, . . . , αj , . . . , αs

las filas de la nueva matriz. Es claro que las filas de la matriz anterior y de la nuevamatriz son sistemas equivalentes de vectores y por lo tanto tienen el mismo rango.

Definicion 2.20 Diremos que dos matrices A y B son equivalentes si B proviene deA a traves de una sucesion de transformaciones elementales.

Es evidente que una transformacion elemental es invertible, luego si B proviene de Aa traves de una sucesion de transformaciones elementales, entonces A proviene de Ba traves de una sucesion de transformaciones elementales. Es claro que dos matricesequivalentes tienen el mismo rango.

Definicion 2.21 Sea A matriz de s × n. Diremos que A tiene la forma diagonal sia11 = a22 = · · · = arr = 1 (para algun r tal que 0 ≤ r ≤ mın(s, n)) y todos los demaselementos son cero.

Puesto que una matriz diagonal tiene un menor de orden r distinto de cero (en realidadvale 1) y todos sus menores de orden r + 1 son cero, su rango es r.

Teorema 2.22 Toda matriz puede ser reducida a la forma diagonal mediante unasucesion de transformaciones elementales.

Page 48: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

44 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Demostracion: Si aij = 0 ∀ i, j ella tiene la forma diagonal. Si no es ası, sin perdidade generalidad podemos suponer que a11 = 1; en forma analoga al metodo de Gaussaplicado a la primera columna llevamos la matriz A a la forma

A′ =

1 a12 a13 · · · a1n

0 a′22 a′23 · · · a′2n...

......

. . ....

0 a′s2 a′s3 · · · a′sn

,

luego, aplicando el metodo a la primera fila, esto es, restando a cada columna unacolumna proporcional a la primera de modo que aparezcan ceros en la primera fila,llevamos A′ a la forma

A′′ =

1 0 0 · · · 00 a′′22 a′′23 · · · a′′2n...

......

. . ....

0 a′′s2 a′′s3 · · · a′′sn

Si todos los a′′ij son cero, A′′ tiene la forma diagonal. Si algun a′′ij es distinto de ceroaplicamos el metodo a la columna 2 y a la fila 2 de A′′. Es claro que el proceso terminadespues de un numero finito de pasos.

Se concluye que para calcular el rango de una matriz basta contar el numero de unosque hay en su diagonal principal.

Ejemplo: Calcular el rango de

A =

0 2 −4−1 −4 53 1 70 5 −102 3 0

Page 49: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.6. EQUIVALENCIA DE MATRICES 45

A1 =

1 4 −53 1 72 3 00 1 −20 1 −2

A2 =

1 4 −53 1 72 3 00 1 −20 0 0

A3 =

1 4 −50 −11 220 −5 100 1 −20 0 0

A4 =

1 4 −50 −1 20 −1 20 −1 20 0 0

A5 =

1 4 −50 −1 20 0 00 0 00 0 0

A6 =

1 0 00 −1 20 0 00 0 00 0 0

A7 =

1 0 00 −1 00 0 00 0 00 0 0

rangoA = 2.

Ejemplo: Calcular el rango de

A =

1 2 6 −2 −1−2 −1 0 −5 −13 1 −1 8 1−1 0 2 −4 −1−1 −2 −7 3 2−2 −2 −5 −1 1

A1 =

1 1 2 6 −21 −2 −1 0 −5−1 3 1 −1 81 −1 0 2 −4−2 −1 −2 −7 3−1 −2 −2 −5 −1

A2 =

1 1 2 6 −20 −3 −3 −6 −30 4 3 5 60 −2 −2 −4 −20 1 2 5 −10 −1 0 1 −3

A3 =

1 1 2 6 −20 1 1 2 10 4 3 5 60 1 1 2 10 1 2 5 −10 −1 0 1 −3

A4 =

1 1 2 6 −20 1 1 2 10 4 3 5 60 1 2 5 −10 −1 0 1 −30 0 0 0 0

Page 50: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

46 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

A5 =

1 0 0 0 00 1 1 2 10 4 3 5 60 1 2 5 −10 −1 0 1 −30 0 0 0 0

A6 =

1 0 0 0 00 1 1 2 10 0 −1 −3 20 0 1 3 −20 0 1 3 −20 0 0 0 0

A7 =

1 0 0 0 00 1 1 2 10 0 1 3 −20 0 0 0 00 0 0 0 00 0 0 0 0

A8 =

1 0 0 0 00 1 0 0 00 0 1 3 −20 0 0 0 00 0 0 0 00 0 0 0 0

A9 =

1 0 0 0 00 1 0 0 00 0 1 0 00 0 0 0 00 0 0 0 00 0 0 0 0

rango A = 3.

2.7. Soluciones de sistemas de ecuaciones lineales

2.7.1. Compatibilidad para sistemas no homogeneos

Teorema 2.23 El sistema de s ecuaciones lineales con n incognitas

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

...as1x1 + as2x2 + · · ·+ asnxn = bs

(2.13)

es compatible si y solo si el rango de la matriz A del sistema es igual al rango de lamatriz ampliada A del sistema.

Demostracion: Supongamos que el sistema es compatible, sea (k1, k2, . . . , kn) unasolucion. Reemplazando en (2.13) se tiene

n∑r=1

airkr = bi i = 1, 2, . . . , s (2.14)

Interpretemos las columnas de A y la ultima columna de A como vectores en Rs, sean

αj = (a1j , a2j , . . . , asj) j = 1, 2, . . . , n

β = (b1, b2, . . . , bs)

Page 51: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 47

Entoncesn∑

i=1

kiαi = k1(a11, a21, . . . , as1) + k2(a12, a22, a32, . . . , as2) + · · ·+ kn(a1n, a2n, . . . , asn)

=

(n∑

r=1

a1rkr,

n∑r=1

a2rkr, . . . ,

n∑r=1

asrkr

)

Se concluye que (2.14) es equivalente a

n∑

i=1

kiαi = β

luego la ultima columna de A se expresa linealmente mediante las columnas de A (esobvio que las demas tambien). Es claro que toda columna de A se expresa linealmentemediante las columnas de A. Entonces ambos sistemas de columnas son equivalentesy por lo tanto tienen el mismo rango.

Si el rango de A es igual al de A cualquier sistema linealmente independiente maximalde columnas de A es linealmente independiente maximal mirado como parte del sistemade columnas de A. Entonces la ultima columna de A se expresa linealmente medianteun sistema linealmente independiente maximal de columnas de A y por lo tanto escombinacion lineal de las columnas de A. Entonces hay numeros k1, k2, . . . , kn talesque

n∑

i=1

kiαi = β

o sea, (k1, k2, . . . , kn) es solucion del sistema.

Supongamos que el sistema es compatible y que el rango de A es igual a r. Sin perdidade generalidad podemos suponer que las r primeras filas de A son l.i. (basta reor-denar las ecuaciones). Supongamos que las r primeras filas de A son l.d. Entonces haynumeros λ1, λ2, . . . , λn no todos nulos tales que

r∑

i=1

λi(ai1, ai2, . . . , air, βi) = 0 ⇒r∑

i=1

λiaij = 0 j = 1, 2, . . . , n ,

r∑

i=1

λiβi = 0

lo cual implica quer∑

i=1

λi(ai1, ai2, . . . , ain) = 0, contradiccion. Las r primeras filas de

A son entonces l.i. y forman un sistema linealmente independiente maximal de filasde A. Se deduce que las ecuaciones r + 1, r + 2, . . . , s son combinaciones lineales delas r primeras ecuaciones. Toda solucion de las r primeras es por lo tanto solucion detodo el sistema y viceversa, el sistema (2.13) es equivalente al sistema formado por lasr primeras ecuaciones. Basta entonces resolver el sistema

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

...ar1x1 + ar2x2 + · · ·+ arnxn = br

(2.15)

Como r ≤ mın(s, n) entonces r ≤ n.

Page 52: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

48 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Caso 1: r = n. Entonces el menor M formado por los coeficientes de las r primerasincognitas es distinto de cero (las r primeras filas de A son l.i.), (2.15) es un sistemade r = n ecuaciones con n incognitas y determinante M 6= 0, por la regla de Cramertiene solucion unica.

Caso 2: r < n. Llamaremos incognitas independientes a xr+1, xr+2, . . . , xn. Asignemosa ellas valores arbitrarios cr+1, cr+2, . . . , cn y reescribamos (2.15) como

a11x1 + · · ·+ a1rxr = b1 − a1(r+1)cr+1 − a1(r+2)cr+2 − · · · − a1ncn

a21x1 + · · ·+ a2rxr = b2 − a2(r+1)cr+1 − a2(r+2)cr+2 − · · · − a2ncn

...ar1x1 + · · ·+ arrxr = br − ar(r+1)cr+1 − ar(r+2)cr+2 − · · · − arrcn

(2.16)

Este es un sistema de r ecuaciones con r incognitas con determinante M 6= 0 y paracada juego de valores cr+1, cr+2, . . . , cn hay una solucion unica (c1, c2, . . . , cr) (la cualse calcula mediante la regla de Cramer). Es claro que

(c1, c2, . . . , cr, cr+1, . . . , cn)

es una solucion del sistema (2.15), y como ella depende de n−r parametros arbitrariosse tiene que el sistema original tiene infinitas soluciones.

¿Son estas todas las soluciones del sistema? Sea (k1, k2, . . . , kn) una solucion arbitrariade (2.15). Reemplazando en (2.15) y escribiendo las r identidades resultantes en la for-ma (2.16) podemos interpretar ası:

(k1, k2, . . . , kr) es la unica solucion de (2.16) que se obtiene asignado los valores kr+1,kr+2, . . . , kn a las incognitas independientes. Luego (k1, k2, . . . , kn) se puede obtenerpor el metodo recien descrito, dicho metodo entrega todas las soluciones del sistemaoriginal.

Nota: Un sistema lineal compatible tiene solucion unica si y solo si el rango de lamatriz del sistema es igual al numero de incognitas.

Ejemplo: Resolver

5 −1 2 1 72 1 4 −2 11 −3 −6 5 0

Notese que∣∣∣∣

5 −12 1

∣∣∣∣ 6= 0,

∣∣∣∣∣∣

5 −1 22 1 41 −3 −6

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 −3 −62 1 41 −3 −6

∣∣∣∣∣∣= 0,

∣∣∣∣∣∣

5 −1 12 1 −21 −3 5

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 −3 52 1 −21 −3 5

∣∣∣∣∣∣= 0

luego el rango de A es 2, sin embargo∣∣∣∣∣∣

5 −1 72 1 11 −3 0

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 −3 52 1 11 −3 0

∣∣∣∣∣∣=

∣∣∣∣∣∣

0 0 52 1 11 −3 0

∣∣∣∣∣∣6= 0

luego el rango de A es 3, el sistema es incompatible.

Page 53: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 49

Ejemplo: Resolver

7 3 21 −2 −34 9 11

Notese que∣∣∣∣

7 31 −2

∣∣∣∣ 6= 0 luego el rango de A es 2.

∣∣∣∣∣∣

7 3 21 −2 −34 9 11

∣∣∣∣∣∣=

∣∣∣∣∣∣

4 9 111 −2 −34 9 11

∣∣∣∣∣∣= 0 ,

el rango de A es 2, el sistema es compatible, las dos primeras ecuaciones son l.i.,r = n = 2, la solucion es unica y se obtiene resolviendo

7x1 + 3x2 = 2x1 − 2x2 = −3 ⇒ x1 = − 5

17, x2 =

2317

Ejemplo: Resolver

1 1 −2 −1 1 13 −1 1 4 3 41 5 −9 −8 1 0

Notese que∣∣∣∣

1 13 −1

∣∣∣∣ 6= 0 pero

∣∣∣∣∣∣

1 1 −23 −1 11 5 −9

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 1 −20 −4 70 4 −7

∣∣∣∣∣∣= 0

∣∣∣∣∣∣

1 1 −13 −1 41 5 −8

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 1 −10 −4 70 4 −7

∣∣∣∣∣∣= 0

∣∣∣∣∣∣

1 1 13 −1 31 5 1

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 1 10 −4 00 4 0

∣∣∣∣∣∣= 0

luego el rango de A es 2.∣∣∣∣∣∣

1 1 13 −1 41 5 0

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 1 10 −4 10 4 −1

∣∣∣∣∣∣= 0 ,

rango A = 2, el sistema es compatible.

Como las dos primeras filas de A son l.i. el sistema se reduce a las dos primerasecuaciones, elijamos x3, x4, x5 como incognitas independientes

x1 + x2 = 1 + 2x3 + x4 − x5

3x1 − x2 = 4− x3 − 4x4 − 3x5

Page 54: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

50 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Luego

x1 =14(5 + x3 − 3x4 − 4x5)

x2 = −14(1− 7x3 − 7x4)

Ejemplo: Resolver

4 1 −2 1 31 −2 −1 2 22 5 0 1 −13 3 −1 −3 1

Notese que ∣∣∣∣∣∣

4 1 −21 −2 −12 5 0

∣∣∣∣∣∣=

∣∣∣∣∣∣

2 5 01 −2 −12 5 0

∣∣∣∣∣∣= 0

pero ∣∣∣∣∣∣

1 −2 1−2 −1 25 0 1

∣∣∣∣∣∣=

∣∣∣∣∣∣

1 −2 −1−4 3 04 2 0

∣∣∣∣∣∣6= 0

∣∣∣∣∣∣∣∣

4 1 −2 11 −2 −1 22 5 0 13 3 −1 −3

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

4 1 −2 1−7 −4 3 0−2 4 2 015 6 −7 0

∣∣∣∣∣∣∣∣= −

∣∣∣∣∣∣

−7 −4 3−2 4 215 6 −7

∣∣∣∣∣∣

= −∣∣∣∣∣∣

−15 12 11−2 4 215 6 −7

∣∣∣∣∣∣= −

∣∣∣∣∣∣

−15 12 11−2 4 20 18 4

∣∣∣∣∣∣

= 4

∣∣∣∣∣∣

−15 12 111 −2 −10 9 2

∣∣∣∣∣∣= 4

∣∣∣∣∣∣

0 −18 −41 −2 −10 9 2

∣∣∣∣∣∣= 0 ,

se concluye que rango A = 3. El unico menor orlado de 4 × 4 en A es (el otro es eldet A que ya vimos que es cero)

∣∣∣∣∣∣∣∣

1 −2 1 3−2 −1 2 25 0 1 −13 −1 −3 1

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 −2 1 30 −5 4 80 10 −4 −160 5 −6 −8

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣

−5 4 810 −4 −165 −6 −8

∣∣∣∣∣∣= 0

pues las columnas 1 y 3 son proporcionales; el rango de A es 3 luego el sistema escompatible.

Notese que no es posible usar la regla de Cramer, que la incognita independiente esx1, que las tres primeras filas de A son l.i., despues de estos considerandos tenemos:

x2 − 2x3 + x4 = 3− 4x1

−2x2 − x3 + 2x4 = 2− x1

5x2 + x4 = −1− 2x1

⇒x2 − 2x3 + x4 = 3− 4x1

−5x3 + x4 = 8− 9x1

10x3 − 4x4 = −16 + 18x1

Page 55: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 51

Sumando las dos ultimas tenemos 5x3 = −8+9x1, reemplazando en la segunda tenemosx4 = 0. Al reemplazar en la primera ecuacion se obtiene

5x2 − 2(−8 + 9x1) = 15− 20x1 ⇒ x2 =15(−1− 2x1)

2.7.2. Sistemas homogeneos

En este caso rango A = rango A luego son siempre compatibles. Si r = n, la unicasolucion del sistema es la trivial, si r < n el sistema tiene infinitas soluciones. Enparticular, si el numero de ecuaciones es igual al numero de incognitas el sistema tienesoluciones distintas de la trivial si y solo si det A = 0 (r < n).

Sean

α = (a1, a2, . . . , an)β = (b1, b2, . . . , bn)

soluciones de un sistema homogeneo. Entonces cualquier combinacion lineal de ellases tambien solucion, esto es, si λ, µ son numeros arbitrarios, λα + µβ es solucion delsistema (lo cual no es cierto para sistemas no homogeneos).

Puesto que las soluciones pueden ser interpretadas como vectores en Rn, un conjuntode soluciones linealmente independiente maximal con respecto al conjunto de todas lassoluciones del sistema puede constar a lo mas de n soluciones, entonces existe un con-junto finito de soluciones del cual todas las demas son combinaciones lineales. Dichoconjunto se llamara un sistema fundamental de soluciones. Por un teorema previo, to-dos los conjuntos fundamentales de soluciones constan del mismo numero de soluciones.

Teorema 2.24 Sea A la matriz de un sistema homogeneo de s ecuaciones con nincognitas, sea r igual al rango de A. Entonces un conjunto fundamental de solucionesconsta de n− r soluciones.

Demostracion: Sin perdida de generalidad podemos suponer que las incognitas inde-pendientes son xr+1, xr+2, . . . , xn. Sea d un determinante arbitrario de (n−r)×(n−r)distinto de cero. Sea

d =

∣∣∣∣∣∣∣∣∣

c1(r+1) c1(r+2) · · · c1n

c2(r+1) c2(r+2) · · · c2n

......

. . ....

c(n−r)(r+1) c(n−r)(r+2) · · · c(n−r)n

∣∣∣∣∣∣∣∣∣

Adoptemos como valores para las incognitas independientes los elementos de la i-esimafila de d, esto es,

xr+1 = ci(r+1) , xr+2 = ci(r+2) , · · ·xn = cin ,

sea αi = (ci1, ci2, · · · , cir, ci(r+1), · · · , cin) la solucion del sistema obtenida para dichosvalores de las incognitas independientes, 1 ≤ i ≤ n− r.

Page 56: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

52 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Si formamos la matriz de (n − r) × n cuyas filas son α1, α2, . . . , αn−r ella tiene unmenor de (n− r)× (n− r) que es distinto de cero (es precisamente d) luego el rangode dicha matriz es n− r. Se concluye que α1, α2, . . . , αn−r son l.i.

Sea β = (b1, b2, . . . , bn) una solucion arbitraria del sistema. Designemos por α′i, β′ a

α′i = (ci(r+1), ci(r+2), . . . , cin) i = 1, 2, . . . , n− r yβ′ = (br+1, br+2, . . . , bn)

Es claro que α′1, α′2, . . . , α′n−r son un sistema l.i. de vectores en Rn−r y que en Rn−r

el sistema α′1, α′2, . . . , α′n−r, β′ es l.d., entonces hay numeros k1, k2, . . . , kn−r talesque

β′ = k1α′1 + k2α

′2 + · · ·+ kn−rα

′n−r

En Rn, sea

δ =n−r∑

i=1

kiαi − β .

Puesto que δ es combinacion lineal de soluciones del sistema, el mismo tambien essolucion del sistema. Pero δ tiene sus ultimas n− r componentes iguales a cero, luegoes la solucion obtenida cuando xr+1 = xr+2 = · · · = xn = 0. Como el sistema eshomogeneo esta es precisamente la solucion trivial luego δ = 0 y

β =n−r∑

i=1

kiαi .

El sistema α1, α2, . . . , αn−r es maximal.

Ejemplo: Encuentre un sistema fundamental de soluciones para

3 1 −8 2 1 02 −2 −3 −7 2 01 11 −12 34 −5 01 −5 2 −16 3 0

En la matriz A del sistema hagamos las siguientes transformaciones elementales:

A la tercera fila restamos dos veces la primera, sumamos dos veces la segunda y unavez la cuarta, obtenemos

A1 =

3 1 −8 2 12 −2 −3 −7 −20 0 0 0 01 −5 2 −16 3

En A1 permutamos la tercera fila y la cuarta:

A2 =

3 1 −8 2 12 −2 −3 −7 21 −5 2 −16 30 0 0 0 0

Page 57: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

2.7. SOLUCIONES DE SISTEMAS DE ECUACIONES LINEALES 53

luego

A3 =

−1 5 −2 16 −32 −2 −3 −7 21 −5 2 −16 30 0 0 0 0

A4 =

−1 5 −2 16 −32 −2 −3 −7 20 0 0 0 00 0 0 0 0

Es claro que rango A = 2 y que podemos elegir x3, x4, x5 como incognitas indepen-dientes.

−x1 + 5x2 = 2x3 − 16x4 + 3x5

2x1 − 2x2 = 3x3 + 7x4 − 2x5

8x2 = 7x3 − 25x4 + 4x5

x2 =18(7x3 − 25x4 + 4x5)

2x1 − 14(7x3 − 25x4 + 4x5) = 3x3 + 7x4 − 2x5

8x1 − 7x3 + 25x4 − 4x5 = 12x3 + 28x4 − 8x5

x1 =18(19x3 + 3x4 − 4x5)

Tomemos d como

d =

∣∣∣∣∣∣

1 0 00 1 00 0 1

∣∣∣∣∣∣Obtenemos

α1 = (198

,78, 1, 0, 0)

α2 = (38,−25

8, 0, 1, 0)

α3 = (−12,12, 0, 0, 1)

2.7.3. Soluciones para sistemas arbitrarios

Una manera de escribir las soluciones de un sistema lineal arbitrario es la siguiente.Supongamos que por algun metodo se ha encontrado una solucion de el. La llaramemos“una solucion particular del sistema” y la designaremos por αp. Sea β una solucioncualquiera del sistema, sea α1, α2, . . . , αn−r un sistema fundamental de soluciones delcorrespondiente sistema homogeneo. Como β−αp es solucion del sistema homogeneo,hay numeros k1, k2, . . . , kn−r tales que

β − αp =n−r∑

i=1

kiαi .

Se concluye que , conocida una solucion del sistema, basta resolver el correspondientesistema homogeneo, ya que todas las soluciones del sistema original son de la forma

β = solucion particular + una solucion del sistema homogeneo .

Page 58: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

54 CAPITULO 2. RELACIONES DE DEPENDENCIA LINEAL

Page 59: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Capıtulo 3

Algebra de matrices

Definicion 3.1 Sean A = (aij), B = (bij) matrices de m× n. A y B se dicen igualessi

aij = bij 1 ≤ i ≤ m 1 ≤ j ≤ n

Dos matrices son iguales si y solo si sus elementos correspondientes son iguales.

Definicion 3.2 Sean A = (aij), B = (bij) matrices de m × n. Llamaremos matrizsuma de A y B a la matriz de m× n

A + B = (aij + bij)

Es trivial que la operacion suma de matrices tiene las siguientes propiedades:

i.- A + B = B + A

ii.- A + (B + C) = (A + B) + C

iii.- Existe una unica matriz de m × n, la matriz 0 = (0ij) donde 0ij = 0 para todo1 ≤ i ≤ m, 1 ≤ j ≤ n, tal que A + 0 = A para toda matriz A de m× n.

iv.- Dada una matriz A = (aij) de m× n, existe una unica matriz de m× n

−A = (−aij)

tal que A + (−A) = 0.

Definicion 3.3 Sea A = (aij) matriz de m×n, k un numero arbitrario. Llamaremosmatriz producto de A por el numero k a

kA = (kaij)

Es trivial que la operacion multiplicacion de una matriz por un numero k tiene lassiguientes propiedades:

i.- 1 ·A = A

ii.- k1(k2A) = (k1k2)A

iii.- k(A1 + A2) = kA1 + kA2

iv.- (k1 + k2)A = k1A + k2A

55

Page 60: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

56 CAPITULO 3. ALGEBRA DE MATRICES

3.1. Producto de matrices

Definicion 3.4 Sea A = (aij) matriz de m×n, B = (bij) matriz de n×q. Llamaremosmatriz producto de A y B a la matriz de m× q

AB = (cij)

donde cij =n∑

k=1

aikbkj 1 ≤ i ≤ m, 1 ≤ j ≤ q.

Ejemplo: Sea A =

a11 a12

a21 a22

a31 a32

, B =

(b11

b21

). Entonces

AB =

a11b11 + a12b21

a21b11 + a22b21

a31b11 + a32b21

.

Nota: De la definicion se ve que en general el producto de matrices no es conmutativo,pues el numero de filas y columnas de la matriz producto cambia si se altera el ordende los factores, salvo si se multiplican matrices cuadradas del mismo orden. Pero auncuando A y B sean ambas de n × n el producto en general no es conmutativo, porejemplo, si

A =(

1 20 1

), B =

(1 21 1

)⇒ AB =

(3 41 1

), BA =

(1 41 3

)

La operacion multiplicacion de matrices tiene las siguientes propiedades:

i.- Si k es un numero, A una matriz de m× n, B matriz de n× q, entonces

(kA)B = A(kB) = kAB

ii.- Si A es una matriz de m× n, B y C son matrices de n× q, entonces

A(B + C) = AB + AC

y si B y C son matrices de m× n y A es matriz de n× q, entonces

(B + C)A = BA + CA .

iii.- El producto de matrices es asociativo. Sean A = (aij) de m × n, B = (bij) den× q, C = (cij) de q × r, entonces

(AB)C =

(q∑

k=1

(AB)ikckj

)=

(q∑

k=1

[n∑

l=1

ailblk

]ckj

)

=

(n∑

l=1

ail

q∑

k=1

blkckj

)=

(n∑

l=1

ail(BC)lj

)= A(BC)

Page 61: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

3.1. PRODUCTO DE MATRICES 57

Teorema 3.5 Sean A y B matrices de n× n. Entonces det AB = det A detB.

Demostracion: Sea A = (aij), B = (bij). Sea ∆ el determinante auxiliar de 2n× 2n

∆ =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1n 0 0 · · · 0a21 a22 · · · a2n 0 0 · · · 0...

.... . .

......

.... . .

...an1 an2 · · · ann 0 0 · · · 0−1 0 · · · 0 b11 b12 · · · b1n

0 −1 · · · 0 b21 b22 · · · b2n

......

. . ....

......

. . ....

0 0 · · · −1 bn1 bn2 · · · bnn

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

Aplicando el desarrollo de Laplace por menores de n × n de las n primeras filas y nprimeras columnas se tiene que ∆ = det A detB.

Llamemos Ci a la i-esima columna de ∆, 1 ≤ i ≤ 2n. En ∆ hagamos las siguientestransformaciones: a la columna (n + 1) sumemos

b11C1 + b21C2 + · · ·+ bn1Cn

La columna (n + 1) de ∆ queda ası:

n∑

k=1

a1kbk1

n∑

k=1

a2kbk1

...n∑

k=1

ankbk1

00...0

Luego a la columna n + 2 sumamos

b12C1 + b22C2 + · · ·+ bn2Cn

Page 62: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

58 CAPITULO 3. ALGEBRA DE MATRICES

La columna n + 2 de ∆ queda ası:

n∑

k=1

a1kbk2

n∑

k=1

a2kbk2

...n∑

k=1

ankbk2

00...0

Despues de n etapas se tiene

∆ =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1n

n∑

k=1

a1kbk1

n∑

k=1

a1kbk2 · · ·n∑

k=1

a1kbkn

a21 a22 · · · a2n

n∑

k=1

a2kbk1

n∑

k=1

a2kbk2 · · ·n∑

k=1

a2kbkn

......

. . ....

......

. . ....

an1 an2 · · · ann

n∑

k=1

ankbk1

n∑

k=1

ankbk2 · · ·n∑

k=1

ankbkn

−1 0 · · · 0 0 0 · · · 00 −1 · · · 0 0 0 · · · 0...

.... . .

......

.... . .

...0 0 · · · −1 0 0 · · · 0

∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣∣

donde los elementos cij que estan en las filas 1,2,. . . , n y las columnas n + 1, n + 2,. . . , 2n son de la forma

cij =n∑

k=1

aikbkj 1 ≤ i ≤ n , 1 ≤ j ≤ n

esto es, ellos son los elementos de la matriz AB. Desarrollando ∆ por Laplace peroahora por los menores de n× n de las ultimas filas se tiene

∆ = (−1)n+1+n+2+···+n+n+1+2+···+n(−1)n detAB

Pero

(n + 1 + n + 2 + · · ·+ n + n + 1 + 2 + · · ·+ n) + n = n2 + 2n(n + 1)

2+ n = 2n2 + 2n

es par luego ∆ = det AB y tambien ∆ = detA det B.

Definicion 3.6 Sea A matriz de n× n. Diremos que A es singular si detA = 0.

Page 63: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

3.2. MATRICES INVERSAS 59

Del teorema se deduce que si A es singular o B es singular entonces AB es singular.

Recordemos que el sımbolo δij (delta de Kronecker) se define como δij = 0 si i 6= j yδii = 1.

Llamaremos matriz identidad de n× n a la matriz I de n× n tal que I = (δij). Si Aes cualquier matriz de n× n y A = (aij) entonces

AI =

(n∑

k=1

aikδkj

)= (aij) = A ,

analogamente IA = A.

Notese que I es unica. Si hubiese otra matriz I ′ de n× n tal que AI ′ = I ′A = A ∀Aentonces

I = II ′ = I ′I

I ′ = II ′ = I ′I

Notese que det I = 1.

3.2. Matrices inversas

Resolvamos ahora el siguiente problema: dada una matriz A de n × n buscamos unamatriz B de n× n tal que AB = BA = I.

Puesto que det AB = det A detB = 1, para que B pueda existir A debe ser no singular.

Nota: Recordemos que la matriz traspuesta de A = (aij) es la matriz At = (bij)donde bij = aji.

Definicion 3.7 Sea A = (aij) matriz de n × n. Llamaremos matriz adjunta de A ala matriz de n × n A∗ = (bij), donde bij = Aji, esto es, el elemento que esta en lainterseccion d ela fila i y la columna j de A∗ es el adjunto del elemento correspondientede At

A∗ = (Aji) =

A11 A21 · · · An1

A12 A22 · · · An2

......

. . ....

A1n A2n · · · Ann

Ejemplo: Sea A =

1 0 12 1 00 1 2

.

A11 =∣∣∣∣

1 01 2

∣∣∣∣ = 2 A12 = −∣∣∣∣

2 00 2

∣∣∣∣ = −4 A13 =∣∣∣∣

2 10 1

∣∣∣∣ = 2

A21 = −∣∣∣∣

0 11 2

∣∣∣∣ = 1 A22 =∣∣∣∣

1 10 2

∣∣∣∣ = 2 A23 = −∣∣∣∣

1 00 1

∣∣∣∣ = −1

A31 =∣∣∣∣

0 11 0

∣∣∣∣ = −1 A32 = −∣∣∣∣

1 12 0

∣∣∣∣ = 2 A33 =∣∣∣∣

1 02 1

∣∣∣∣ = 1

Page 64: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

60 CAPITULO 3. ALGEBRA DE MATRICES

Entonces

A∗ =

2 1 −1−4 2 22 −1 1

Notese que

AA∗ =

1 0 12 1 00 1 2

2 1 −1−4 2 22 −1 1

=

4 0 00 4 00 0 4

A∗A =

2 1 −1−4 2 22 −1 1

1 0 12 1 00 1 2

=

4 0 00 4 00 0 4

Sea A no singular, sea d = det A, entonces

AA∗ =

(n∑

k=1

aik(A∗)kj

)=

(n∑

k=1

aikAjk

)

Si i = j,n∑

k=1

aikAik = d, si i 6= j,n∑

k=1

aijAjk = 0, luego AA∗ = (dδij) = dI. Analoga-

mente,

A∗A =

(n∑

k=1

Akiakj

)= dI

Se tiene que det AA∗ = dn luego det A∗ = dn−1, si A es no singular, A∗ tambien es nosingular.

Sea B = 1dA∗, entonces AB = BA = I. Diremos que B es una matriz inversa de A.

Sea B′ otra matriz inversa de A, entonces AB′ = B′A = I luego (B′A)B = B yB′(AB) = B′, entonces B′ = B. Se concluye que una matriz no singular A tiene unainversa unica. La designaremos por A−1 y A−1 = ( 1

dAji) donde Aji es el adjunto de aji.

3.3. Representacion matricial de un sistema de ecua-ciones

Sea A = (aij) la matriz de s×n de los coeficientes de un sistema lineal de s ecuacionescon n incognitas, sea

X =

x1

x2

...xn

la matriz de n× 1 de las incognitas, sea

B =

b1

b2

...bs

Page 65: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

3.4. RANGO DE UN PRODUCTO DE MATRICES 61

la matriz de s × 1 de los terminos libres. Aprovechando las definiciones de productode matrices e igualdad de matrices podemos escribr matricialmente el sistema comoAX = B.

Supongamos que s = n y A es no singular, entonces X = A−1B. Puesto que si d 6= 0, dela regla de Cramer sabemos que la solucion X es unica, dicho resultado debe coincidircon aquel entregado por la regla de Cramer. En efecto,

X = (xi1) = (xi) = A−1B =((A−1B)i1

)

=

(n∑

k=1

(A−1)ikBk1

)=

(n∑

k=1

1dAkibk1

)=

1d

(n∑

k=1

bkAki

)= (

di

d)

3.4. Rango de un producto de matrices

Sea A = (aij) matriz de m×n, B = (bij) matriz de n×p. Sea C = AB matriz de m×p.

Teorema 3.8 rangoC ≤ rangoA, rangoC ≤ rangoB.

Demostracion: Si rango de B = 0 (B es la matriz cero) entonces AB = 0 yrangoC = 0, el teorema se cumple.

Si rangoB = p (todas las columnas son l.i.), como el rango de C no puede exceder elnumero de columnas de C se tiene rango C ≤ rangoB.

Sea rangoB = r, 0 < r < p. Para simplificar la notacion en la demostracion suponga-mos que las r primeras columnas de B son l.i. Consideremos la columna k, k > r; hayα1, α2, . . . , αr tales que

b1k

b2k

...bnk

= α1

b11

b21

...bn1

+ α2

b12

b22

...bn2

+ · · ·+ αr

b1r

b2r

...bnr

esto es,

bjk =r∑

s=1

αsbjs j = 1, 2, . . . , n .

Puesto que cik =n∑

j=1

aijbjk se tiene que

cik =n∑

j=1

aij

r∑s=1

αsbjs =r∑

s=1

αs

n∑

j=1

aijbjs

=

n∑s=1

αscis 1 ≤ i ≤ m,

esto es

c1k

c2k

...cmk

= α1

c11

c21

...cm1

+ α2

c12

c22

...cm2

+ · · ·+ αr

c1r

c2r

...cmr

Page 66: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

62 CAPITULO 3. ALGEBRA DE MATRICES

luego en C la columna k, k > r, es combinacion lineal de las r primeras columnas, seconcluye que el rango de C es menor o igual que r.

Nota: (AB)t = (αij) donde

αij = (AB)ji =n∑

k=1

ajkbki =n∑

k=1

(Bt)ik(At)kj

luego (AB)t = BtAt.

Entonces Ct = BtAt luego rango Ct ≤ rangoAt pero rango Ct = rango C, rango At =rango A luego rango C ≤ rangoA.

Corolario 3.9 Sea A matriz de m× n, B matriz no singular de n× n, D matriz nosingular de m×m. Entonces rangoAB = rangoA y rangoDA = rangoA.

Demostracion: rangoAB ≤ rangoA, pero A = A(BB−1) = (AB)B−1 luego rango A ≤rango AB. Analogamente para D.

El rango se preserva bajo multiplicacion por una matriz no singular.

Nota: En la demostracion del teorema no es necesario recurrir a la matriz traspuesta.

De la definicion del producto de matrices se tiene que cik =n∑

j=1

aijbjk, i = 1, 2, . . . , n.

Por otra parte

n∑

j=1

bjk

a1j

a2j

...amj

=

n∑

j=1

bjka1j

n∑

j=1

bjka2j

...n∑

j=1

bjkamj

=

c1k

c2k

...cmk

Luego, en general, al post - multiplicar una matriz A por una matriz B las columnas deAB son combinaciones lineales de las columnas de A. Se tiene entonces que el sistemade columns de C se expresa linealmente mediante el sistema de columnas de A, porteorema previo, rango C ≤ rangoA.

Por otra parte, sea i fijo, entonces cij =n∑

k=1

aikbkj , 1 ≤ i ≤ n. Consideremos

n∑

k=1

aik(bk1, bk2, . . . , bkp) =

(n∑

k=1

aikbk1,

n∑

k=1

aikbk2, · · · ,

n∑

k=1

aikbkp

)= (ci1, ci2, . . . , cip)

Luego, en general, al pre - multiplicar una matriz B por una matriz A las filas deAB son combinaciones lineales de las filas de B, el sistema de filas de C se expresalinealmente mediante el sistema de filas de B luego rango AB ≤ rango B.

Page 67: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Capıtulo 4

Vectores en Rn

4.1. Propiedades

Con el fin de estudiar los sistemas lineales de ecuaciones introdujimos una estructuraalgebraica auxiliar a la cual designamos por Rn. Por el momento nos olvidaremos delas operaciones de suma y multiplicacion por un numero y focalizaremos nuestro in-teres en el “conjunto” Rn a cuyos elementos llamaremos “puntos”.

Sean P = (x1, x2, . . . , xn), Q = (y1, y2, . . . , yn) puntos de Rn, llamaremos recta por Py Q al siguiente conjunto de puntos de Rn:

{(z1, z2, . . . , zn) : zi = xi + λ(yi − xi), i = 1, 2, . . . , n , −∞ < λ < ∞}

Llamaremos segmento PQ a la totalidad de los puntos de la recta por P y Q para loscuales 0 ≤ λ ≤ 1.

Los puntos P y Q del segmento PQ se llaman los puntos extremos del segmento. Elsegmento PQ se dice dirigido si a uno de los puntos extremos P , Q lo llamamos puntoinicial y al otro, punto final. Si el punto inicial es P el segmento dirigido se designapor

−−→PQ, si el punto inicial es Q se designa por

−−→QP . A los segmentos dirigidos los

llamaremos vectores en Rn, a las n diferencias yi − xi, i = 1, 2, . . . , n, las llamaremoslas componentes del vector

−−→PQ. Segun esta definicion xi − yi, i = 1, 2, . . . , n, son las

componentes del vector−−→QP . Dos vectores se dicen iguales si y solo si sus componentes

correspondientes son iguales. De acuerdo a esta definicion de igualdad de vectores,dos vectores que difieren tanto en su punto inicial como en su punto final pueden seriguales, pero una vez elegido arbitrariamente el punto inicial P = (x1, x2, . . . , xn), sia1, a2, . . . , an son las componentes del vector, su punto final Q = (y1, y2, . . . , yn)queda unicamente determinado por las ecuaciones

yi = xi + ai i = 1, 2, . . . , n

Si un vector tiene componentes a1, a2, . . . , an lo designaremos por {a1, a2, . . . , an} ≡ ~a.

La expresion {0, 0, . . . , 0}, la cual no recibe significado de las definiciones anteriores sellama vector nulo y se designa por ~0.

63

Page 68: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

64 CAPITULO 4. VECTORES EN RN

Sean ~a = {a1, a2, . . . , an}, ~b = {b1, b2, . . . , bn} dos vectores, queremos definir la “suma”de ellos, la cual se designara por ~a +~b:

Elijamos arbitrariamente el punto inicial P de ~a, sea Q su punto final. Elegimos co-mo punto inicial de ~b a Q, sea R su punto final. Llamaremos vector suma de ~a y ~b

al vector−→PR cuyo punto inicial es P y cuyo punto final es R. Entonces

−−→PQ+

−−→QR =

−→PR.

Sea P = (x1, x2, . . . , xn) entonces Q = (y1, y2, . . . , yn) esta dado por

yi = xi + ai i = 1, 2, . . . , n

y R = (z1, z2, . . . , zn) esta dado por

zi = yi + bi i = 1, 2, . . . , n .

Entonces zi = xi + ai + bi luego−→PR es el vector cuyas componentes son a1 + b1, a2 +

b2, . . . , an + bn. Ası se tiene que

{a1, a2, . . . , an}+ {b1, b2, . . . , bn} = {a1 + b1, a2 + b2, . . . , an + bn}

Es claro que la suma es conmutativa, asociativa, tiene una identidad unica que es elvector nulo y cada vector tiene un unico inverso aditivo.

Definimos el producto del vector ~a = {a1, a2, . . . , an} por el numero real λ como elvector

λ~a ≡ ~aλ = {λa1, λa2, · · · , λan},operacion que tiene las siguientes propiedades:

i.- 1 · ~a = ~a

ii.- λ(µ~a) = λµ~a

iii.- λ(~a +~b) = λ~a + λ~b

iv.- (λ + µ)~a = λ~a + µ~a

Tambien se tiene queλ~a = ~0 ⇒ λ = 0 o ~a = ~0

Sean ~a = {a1, a2, . . . , an}, ~b = {b1, b2, . . . , bn}. Al numero realn∑

i=1

aibi lo llamaremos

producto escalar de ~a y ~b, lo designaremos por ~a ·~b.

Es claro que

~a ·~b = ~b · ~a

λ(~a ·~b) = (λ~a) ·~b = ~a · (λb)

~a · (~b + ~c) = ~a ·~b + ~a · ~c

Page 69: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.2. SUBESPACIOS DE VECTORES EN RN 65

y que ~a ·~b = 0 no implica necesariamente ~a = ~0 o ~b = ~0. Si ~a ·~b = 0 decimos que ~a y ~bson mutuamente ortogonales.

Diremos que los p vectores ~a1,~a2, . . . ,~ap son l.d. si hay reales no todos nulos λ1, λ2,. . . , λp tales que

p∑

i=1

λi~ai = ~0 ,

esto es, si existe una combinacion lineal no trivial de ellos que es igual al vector nulo.En caso contrario diremos que son l.i. Las propiedades de la relacion de dependenciao independencia lineal entre vectores son analogas a las definidas en Rn por lo tantono insistiremos en enunciarlas o demostralas, simplemente las usaremos.

Notacion: Llamaremos V al conjunto de los vectores en Rn premunido de las opera-ciones de suma y multiplicacion por un numero.

A los vectores ~e1 = {1, 0, . . . , 0}, ~e2 = {0, 1, . . . , 0}, . . . , ~en = {0, 0, . . . , 1} los llamare-mos la base estandar de V . Ellos son claramente l.i.

4.2. Subespacios de vectores en Rn

Definicion 4.1 Sea L ⊂ V , L 6= ∅. Diremos que L es un subespacio de V si

i.- cada que ~a ∈ L y λ es un numero real arbitrario entonces λ~a ∈ L.

ii.- cada que ~a,~b ∈ L (~a y ~b no necesariamente distintos) entonces ~a +~b ∈ L.

Nota: Si L es un subespacio, ~0 ∈ L.

Sean ~a1, ~a2, . . . , ~ap vectores en V . Sea

L = {~a : ~a =p∑

i=1

λi~ai, λi ∈ R i = 1, 2, . . . , p} ,

esto es, el conjunto de todas las combinaciones lineales de los vectores ~a1, ~a2, . . . , ~ap.

Es claro que L es un subespacio de V . Si H es otro subespacio de V tal que ~a1,~a2, . . . ,~ap ∈H entonces

n∑

i=1

λi~ai ∈ H luego L ⊂ H. Se concluye que L es el subespacio mas pequeno

que contiene a los vectores ~a1, ~a2, ~a3, . . . , ~ap. Diremos que L es el subespacio generadopor los vectores ~a1, ~a2, . . . , ~ap.

Teorema 4.2 (Teorema de reemplazo de Steinitz) Sean ~a1, ~a2, . . . , ~ap vectoresarbitrarios en V , sea L el subespacio generado por ellos. Sean ~b1, ~b2, . . . , ~bq q vectoresl.i. en L. Entonces hay un cierto subconjunto de q vectores del conjunto ~a1, ~a2, . . . , ~ap

tal que el conjunto de los vectores restantes unido al conjunto ~b1, ~b2, . . . , ~bq tambiengenera a L.

Page 70: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

66 CAPITULO 4. VECTORES EN RN

Demostracion: Demostraremos el teorema por induccion. Si ningun vector ~b1, ~b2,. . . , ~bq se ha dado, o sea q = 0, el teorema es cierto. Supongamos que q > 0 y queel teorema ha sido demostrado para los primeros q − 1 vectores ~bi. Supongamos quenumeramos los vectores ~a1, ~a2, . . . , ~ap de manera tal que los vectores reemplazadosson ~a1, ~a2, . . . , ~aq−1, esto es, de modo tal que L sea generado por ~b1, ~b2, . . . , ~bq−1, ~aq,. . . , ~ap. Como ~bq ∈ L

~bq =q−1∑

i=1

λi~bi +

p∑

i=q

λi~ai

donde λq, λq+1, . . . , λp no pueden ser todos nulos. Supongamos que λq 6= 0, entonces

~aq =1λq

~bq − 1λq

q−1∑

i=1

λi~bi − 1

λq

p∑

i=q+1

λi~ai =1λq

~bq −q−1∑

i=1

λi

λq

~bi −p∑

i=q+1

λi

λq~ai

Sea ~c ∈ L arbitrario, por la hipotesis de induccion

~c =q−1∑

i=1

µi~bi +

p∑

i=q

µi~ai ,

sustituyendo ~aq se tiene

~c =q−1∑

i=1

(µi − µqλi

λq)~bi +

µq

λq

~bq +p∑

i=q+1

(µi − µqλi

λq)~ai .

Esto demuestra que ~b1, ~b2, . . . , ~bq, ~aq+1, . . . , ~ap generan a L.

Nota: Sean ~b1, ~b2, . . . , ~bq, q > p, vectores arbitrarios en L. Si ellos fuesen l.i. po-drıamos aplicar el teorema anterior y reemplazar ~a1, ~a2, . . . , ~ap por ~b1, ~b2, . . . , ~bp demodo que ~b1, ~b2, . . . , ~bp generan a L y por lo tanto ~bp+1, . . . , ~bq son combinacioneslineales de ellos, lo cual es contradiccion.

Se concluye que en L un conjunto l.i. de vectores no puede tener mas de p vectores ypor lo tanto se tiene que en V “cualquier conjunto de mas de p combinaciones linealesde p vectores dados es siempre l.d.”

Si ~a = {a1, a2, . . . , an}, ~a =n∑

i=1

ai~ei. Se tiene que V es generado por el conjunto l.i.

~e1, ~e2, . . . , ~en. Aplicando la observacion anterior tomando a ~e1, ~e2, . . . , ~en como losvectores dados, p = n, concluımos que cualquier conjunto de mas de n vectores en Ves l.d.; un conjunto l.i. de vectores en V puede contener a lo mas n vectores.

Esta observacion permite dar la siguiente

Definicion 4.3 Sea L un subespacio cualquiera de V , supongamos que en L hay pvectores l.i., 0 ≤ p ≤ n, y que cualquier conjunto de mas de p vectores en L es l.d.Diremos que L tiene dimension p. Si p = 0 entonces L = {0}.Supongamos que L tiene dimension p > 0, sean ~a1, ~a2, . . . , ~ap vectores l.i. en L. Si~b ∈ L, el conjunto ~a1, ~a2, . . . , ~ap, ~b es l.d., hay λ1, λ2, . . . , λp, λp+1 no todos nulostales que

p∑

i=1

λi~ai + λp+1~b = 0 .

Page 71: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.2. SUBESPACIOS DE VECTORES EN RN 67

Si λp+1 = 0 obtenemos una contradiccion, luego λp+1 6= 0 y ~b es una combinacionlineal de ~a1, ~a2, . . . , ~ap; cualquier conjunto l.i. de p vectores en L genera a L.

Si L tiene dimension p, diremos que cualquier conjunto l.i. de p vectores en L es unabase de L.

Sea ~a1, ~a2, . . . , ~ap una base de L, sea ~b ∈ L arbitrario, supongamos que ~b puederepresentarse de dos maneras distintas como combinacion lineal de los vectores ~a1, ~a2,. . . , ~ap, esto es,

~b =n∑

i=1

λi~ai =n∑

i=1

µi~ai ,

entonces λi = µi, i = 1, 2, . . . , n (los vectores ~a1, ~a2, . . . , ~ap son l.i.). Cada ~b ∈ L tieneuna unica representacion en terminos de una base.

Teorema 4.4 Sea L el subespacio generado por los vectores ~a1, ~a2, . . . , ~aq. La di-mension de L es igual al numero maximo de vectores l.i. que hay entre los vectores ~a1,~a2, . . . , ~aq.

Demostracion: Sea p dicho numero maximo, supongamos que los vectores dados hansido ordenados de modo que los p primeros son l.i. Entonces el conjunto de vectores~a1, ~a2, . . . , ~ap, ~ap+k, con 1 ≤ k ≤ q − p, es l.d. luego ap+k es una combinacion linealde ~a1, ~a2, . . . , ~ap

~ap+k =p∑

i=1

λ(k)i ~ai ; k = 1, 2, . . . , q − p (4.1)

Sea ~b ∈ L, entonces ~b =q∑

i=1

µi~ai, reemplazando ~ap+1, ~ap+2, . . . , ~aq por sus expresiones

(4.1) vemos que ~b es una combinacion lineal de ~a1, ~a2, . . . , ~ap.

Entonces L es subconjunto del subespacio generado por ~a1, ~a2, . . . , ~ap y es trivial queel subespacio generado por ~a1, ~a2, . . . , ~ap es subconjunto de L luego ambos son igualesy la dimension de L es p.

Nota: Sea L un subespacio en V . Sea L∗ otro subespacio de V contenido en L, su-pongamos que la dimension de L es p y que la dimension de L∗ es igual a la de L.Entonces si ~a1, ~a2, . . . , ~ap es una base de L∗, tambien lo es de L luego el conjunto delas combinaciones lineales de ~a1, ~a2, . . . , ~ap es igual a L∗ y a L, entonces L∗ = L.

Luego si L∗ esta propiamente contenido en L, necesariamente la dimension de L∗ esmenor que la de L.

Teorema 4.5 Sea L un subespacio de dimension p, sean ~b1, ~b2, . . . , ~bk un conjuntoarbitrario de vectores l.i. en L, k ≤ p. Entonces ~b1, ~b2, . . . , ~bk puede ser extendido auna base de L agregando de manera ordenada p − k vectores ~ak+1, ~ak+2, . . . , ~ap (demodo que ~b1, ~b2, . . . , ~bk, ~ak+1, . . . , ~ap sea un conjunto l.i.).

Demostracion: Sea ~a1, ~a2, . . . , ~ap una base de L. Por el teorema de Steinitz (podemossuponer los ~a1, ~a2, . . . , ~ap adecuadamente ordenados) podemos reemplazar ~a1, ~a2, . . . ,

Page 72: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

68 CAPITULO 4. VECTORES EN RN

~ak por ~b1, ~b2, . . . , ~bk de modo que el conjunto ~b1, ~b2, . . . , ~bk, ~ak+1, . . . , ~ap tambiengenera a L. Pero dimL = p luego, por el teorema anterior, ~b1, ~b2, . . . , ~bk, ~ak+1, . . . ,~ap es l.i.

Nota: Dados dos subespacios L1, L2, L1 ∩ L2 es siempre no vacıo puesto que ~0 ∈L1 ∩ L2. Es claro que si ~a ∈ L1 ∩ L2, λ~a ∈ L1 y λ~a ∈ L2 luego λ~a ∈ L1 ∩ L2 y si~a,~b ∈ L1 ∩ L2, ~a + ~b ∈ L1 y ~a + ~b ∈ L2 luego ~a + ~b ∈ L1 ∩ L2. Concluımos que lainterseccion de dos subespacios es un subespacio.

Definicion 4.6 Sean L1, L2 subespacios de V . Llamaremos suma de L1 y L2 a

L = {~c : ~c = ~a +~b, ~a ∈ L1, ~b ∈ L2}

Claramente ~0 = ~0 +~0 luego L 6= ∅.

Si ~c ∈ L, hay ~a ∈ L1, ~b ∈ L2 tales que ~c = ~a + ~b. Pero λ~a ∈ L1, λ~b ∈ L2, y pordefinicion λ~c = λ~a + λ~b ∈ L.

Analogamente, si ~c1 y ~c2 ∈ L, hay ~a1,~a2 ∈ L1, y ~b1,~b2 ∈ L2 tales que ~c1 = ~a1 +~b1,~c2 = ~a2 +~b2, entonces

~c1 + ~c2 = (~a1 + ~a2) + (~b1 +~b2) ,

~a1 + ~a2 ∈ L1, ~b1 +~b2 ∈ L2 luego ~c1 + ~c2 ∈ L.

Se concluye que L es un subespacio en V llamado el subespacio suma de L1 y L2, y sedenota por L = L1 + L2.

Teorema 4.7 Sean L1 y L2 subespacios de V , dim L1 = p1, dim L2 = p2. Sea D =L1 ∩ L2, dim D = d. Sea S = L1 + L2, dim S = s. Entonces p1 + p2 = d + s.

Demostracion: Sea ~a1, ~a2, . . . , ~ad una base de D. Extendemos esta base a una basede L1 agregando vectores ~b1, ~b2, . . . , ~bq donde q = p1 − d, y tambien la extendemos auna base de L2 agregando ~c1, ~c2, . . . , ~cr donde r = p2 − d.

Si ~a1 ∈ L1 entonces

~a1 =d∑

i=1

λi~ai +q∑

i=1

µi~bi

y si ~a2 ∈ L2 entonces

~a2 =d∑

i=1

ρi~ai +r∑

i=1

σi~ci

Puesto que todo vector de S es de la forma ~a1 + ~a2, todo vector de S es una combi-nacion lineal del conjunto de vectores ~a1, ~a2, . . . , ~ad, ~b1, ~b2, . . . , ~bq, ~c1, ~c2, . . . , ~cr.

Queremos demostrar que esta coleccion es l.i. Supongamos que

d∑

i=1

αi~ai +q∑

i=1

βi~bi +

r∑

i=1

γi~ci = ~0

Page 73: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.2. SUBESPACIOS DE VECTORES EN RN 69

Entoncesr∑

i=1

γi~ci ∈ L1 y comor∑

i=1

γi~ci ∈ L2 se tiene quer∑

i=1

γi~ci ∈ D y por lo tanto

r∑

i=1

γi~ci =d∑

i=1

δi~ai. Por construccion la coleccion ~a1, ~a2, . . . , ~ad, ~c1, ~c2, . . . , ~cr es l.i.

luego γi = 0, i = 1, 2, . . . , r y δi = 0, i = 1, 2, . . . , d y por lo tanto

d∑

i=1

αi~ai +q∑

i=1

βi~bi = ~0

Por identicas razones αi = 0, i = 1, 2, . . . , d y βi = 0, i = 1, 2, . . . , q. Se concluye que lacoleccion ~a1, ~a2, . . . , ~ad, ~b1, ~b2, . . . , ~bq, ~c1, ~c2, . . . , ~cr es l.i. y genera a S, por definicion

dim S = s = d + q + r = d + p1 − d + p2 − d .

Nota: Es claro que para cada natural n hay un Rn y por lo tanto un V . Para n = 2,V es lo que llamamos “los vectores geometricos en el plano” y para n = 3, V es loque llamamos “los vectores geometricos en el espacio”. De ahora en adelante a V lodesignaremos por V n.

Ejemplo: En V 4 sean

~a1 = {3,−1, 1, 2}~a2 = {4,−1,−2, 3}~a3 = {10,−3, 0, 7}~a4 = {−1, 1,−7, 0}

Sea L1 el subespacio generado por ~a1, ~a2, ~a3, ~a4. Sean

~b1 = {2,−4,−3, 7}~b2 = {5, 2, 2,−1}

Sea L2 el subespacio generado por ~b1, ~b2. Encontrar las dimensiones de L1, L2, L1∩L2,L1 + L2.

Consideremos el sistema de vectores ~a1, ~a2, ~a3, ~a4 y supongamos que α~a1 + β~a2 +γ~a3 + δ~a4 = ~0, entonces

3α + 4β + 10γ − δ = 0−α − β − 3γ + δ = 0α − 2β − 7δ = 02α + 3β + 7γ = 0

Sea

A =

3 4 10 −1−1 −1 −3 11 −2 0 −72 3 7 0

Page 74: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

70 CAPITULO 4. VECTORES EN RN

la matriz del sistema. Puesto que la cuarta fila es suma de las dos primeras ella tieneel mismo rango que

A1 =

3 4 10 −1−1 −1 −3 11 −2 0 −70 0 0 0

la cual tiene el mismo rango que

A2 =

0 1 1 2−1 −1 −3 10 −3 −3 −60 0 0 0

la cual tiene rango 2, luego rango A = 2 y como∣∣∣∣

3 4−1 −1

∣∣∣∣ 6= 0 las dos primeras

columnas de A son l.i.

Se concluye que ~a1, ~a2 es un sistema linealmente independiente maximal de la colec-cion ~a1, ~a2, ~a3, ~a4, dim L1 = 2.

Supongamos que α~b1 + βb2 = ~0

2α + 5β = 0−4α + 2β = 0−3α + 2β = 0

7α− β = 0

Sumando las tres ultimas se tiene que necesariamente β = 0 luego el sistema tiene solola solucion trivial, dimL2 = 2.

Todo vector de L1 es de la forma α~a1 +β~a2, todo vector de L2 es de la forma γ~b1 +δ~b2.Se concluye que S = L1 +L2 es el subespacio generado por ~a1, ~a2, ~b1, ~b2. Supongamosque

α~a1 + β~a2 + γ~b1 + δ~b2 = ~0

La matriz del sistema es

A =

3 4 2 5−1 −1 −4 21 −2 −3 22 3 7 −1

la cual tiene el mismo rango que

A1 =

0 1 −10 11−1 −1 −4 20 −3 −7 40 1 −1 3

la cual tiene el mismo rango que

A2 =

1 1 4 −20 1 −10 110 −3 −7 40 1 −1 3

Page 75: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.3. VARIEDADES LINEALES 71

y esta a su vez el mismo rango que

A3 =

1 1 4 −20 1 −10 110 0 −37 370 0 9 −8

y que

A4 =

1 1 4 −20 1 −10 110 0 −1 10 0 9 −8

y que

A5 =

1 1 4 −20 1 −10 110 0 −1 10 0 0 1

y trabajando por columnas

A6 =

1 1 2 −20 1 1 110 0 0 10 0 1 1

, A7 =

1 1 2 −20 1 1 110 0 1 10 0 0 1

El determinante de A7 es

det A7 =

∣∣∣∣∣∣

1 1 110 1 10 0 1

∣∣∣∣∣∣=

∣∣∣∣1 10 1

∣∣∣∣ = 1

luego rango A = 4 luego la dimension de S es igual a 4.

Se concluye que como dim L1 + dimL2 = dim L1 ∩ L2 + dim L1 + L2 entonces ladimension de L1 ∩ L2 es 0.

4.3. Variedades lineales

Habıamos definido la recta por los puntos P = (x1, x2, . . . , xn), Q = (y1, y2, . . . , yn) deRn como el conjunto de los puntos (z1, z2, . . . , zn) ∈ Rn tales que

zi = xi + λ(yi − xi) i = 1, 2, . . . , n , −∞ < λ < ∞ .

Sea ~a =−−→PQ = {y1 − x1, y2 − x2, . . . , yn − xn}, entonces ~a ∈ V n. Llamaremos R =

(z1, z2, . . . , zn). De la definicion de recta y de la definicion de igualdad de vectorestenemos que −→

PR = λ−−→PQ.

Como para cada valor de λ obtenemos un punto R de la recta, obtenemos el punto R

correspondiente al valor λ “copiando” al vector λ−−→PQ con punto inicial P . Pero la to-

talidad de los vectores λ~a es un subespacio de L de V n de dimension 1, luego podemospensar la recta como la totalidad de los puntos R obtenidos de “copiar” o “aplicar” el

Page 76: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

72 CAPITULO 4. VECTORES EN RN

subespacio L a partir de P . Es motiva la siguiente definicion:

Llamaremos variedad lineal de dimension p a la totalidad de los puntos R ∈ Rn

obtenidos de “copiar” los vectores de un subespacio L de V n a partir de un punto fijoP ∈ Rn. Decimos que los puntos R de la variedad se obtienen “aplicando” el subespa-cio L en P . En otras palabras, los puntos R de la variedad son los extremos finales delos vectores de L representados como segmentos dirigidos cuyo punto inicial es P .

Ejemplo: Sea L un subespacio de dimension 2 de V 3, donde interpretamos R3 comoel espacio fısico ordinario. Sea ~a, ~b una base de L, sea P un punto fijo del espacio.Copiamos ~a y ~b con punto inicial P , sean Q y R sus puntos finales respectivamente.Como ~a y ~b son l.i., P , Q, R determinan un plano Π en el espacio. Afirmamos quela variedad lineal de dimension 2 obtenida de aplicar L en P es el plano Π del espa-cio fısico ordinario. En efecto, el punto S obtenido de aplicar λ~a en P esta en Π y

Q

S

P T R

Z

analogamente el punto T obtenido de aplicarµ~b en P tambien esta en Π. Puesto que unvector arbitrario de L es de la forma λ~a + µ~b,sea Z el punto obtenido de aplicar λ~a + µ~b enP . Por definicion de suma de vectores, paraobtener λ~a + µ~b copiamos arbitrariamente λ~aa partir de P y luego copiamos λ~b a partir deS (o podemos aplicar µ~b en P y luego λ~a en

T ), es claro que Z ∈ Π. A la inversa, dado Z ∈ Π, trazando paralelas por Z a ~a y ~bpodemos encontrar S y T (o sea λ y µ) luego todo punto Z ∈ Π puede ser encontradopor este metodo.

Nota: Una variedad lineal de dimension 0 se obtiene aplicando L = {~0} en P , osea es simplemente un punto. Una variedad lineal de dimension 1 es una recta, unavariedad lineal de dimension 2 es un plano, una variedad lineal de dimension n− 1 esun hiperplano. Todos los puntos de una variedad lineal son equivalentes en el siguientesentido: si tomamos otro punto Q de la variedad y aplicamos L en Q obtenemos lamisma variedad, en efecto, sea Q otro punto de la variedad, sea Z un punto arbitrariode ella. Entonces hay ~z ∈ L tal que ~z =

−→PZ. Tambien hay ~q ∈ L tal que ~q =

−−→PQ. Pero−−→

PQ +−→QZ =

−→PZ luego ~q +

−→QZ = ~z,

−→QZ = ~z − ~q. Pero ~z − ~q ∈ L luego Z se obtiene

aplicando ~z − ~q en Q.

Nota: En Rn consideremos el punto O = (0, 0, . . . , 0). Si P = (x1, x2, . . . , xn) es otropunto cualquiera de Rn, podemos obtener P aplicando el vector {x1, x2, . . . , xn} deV n en O. Como V n es un subespacio de sı mismo, podemos concluir que Rn es unavariedad lineal de dimension n.

Sea M la variedad lineal obtenida aplicando el subespacio L de dimension p > 0. SeaP0 ∈ M , sea ~a1, ~a2, . . . , ~ap una base de L. Sea P ∈ M , entonces

−−→P0P ∈ L y hay

numeros reales y1, y2, . . . , yp tales que

−−→P0P =

p∑

i=1

yi~ai .

Es claro que como−−→P0P tiene una unica expresion en la base ~a1, ~a2, . . . , ~ap, el juego

de numeros reales y1, y2, . . . , yp es unico.

Page 77: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.3. VARIEDADES LINEALES 73

Definicion 4.8 Diremos que el punto P0 y la base ~a1, ~a2, . . . , ~ap de L constituyen unsistema afın de coordenadas en M cuyo origen es P0 y tal que las direcciones de losejes coordenados estan dadas por ~a1, ~a2, . . . , ~ap. Lo anotaremos por (P0,~a1,~a2, . . . ,~ap).

Diremos que el juego de numeros y1, y2, . . . , yp son las coordenadas del punto P ∈ Mcon respecto al sistema de coordenadas (P0,~a1,~a2, . . . ,~ap).

Es ası como cada punto P ∈ M puede ser representado por una p-tupla (y1, y2, . . . , yp)de numeros reales y es claro que dado el sistema de coordenadas la correspondenciaentre puntos de M y p-tuplas es 1-1. Sin embargo, si cambiamos P0, o la base de Lo ambos, el mismo punto P ∈ M esta representado por otra p-tupla de numeros reales.

Teorema 4.9 Sean P0, P1, . . . , Pp puntos en Rn tales que ellos no estan todos enninguna variedad lineal de dimension menor que p. Entonces existe una unica variedadlineal M de dimension p que los contiene.

Demostracion: Sean Pk = (x(k)1 , x

(k)2 , . . . , x

(k)n ), k = 0, 1, . . . , p, tales que no estan

todos en ninguna variedad lineal de dimension menor que p. Sean ~αk =−−→P0P , k =

1, 2, . . . , p. Si ellos fuesen l.d. el subespacio L generado por ellos tendrıa dimensionmenor que p. Al aplicar L en P0 obtendrıamos una variedad lineal M de dimensionmenor que p que los contiene a todos, luego ellos son l.i. y por lo tanto el subespacioL generado por ellos tiene dimension p.

Al aplicar L en P0 obtenemos una variedad lineal M de dimension p que contiene aP0, P1, . . . , Pp. Sea M ′ otra variedad lineal de dimension p que los contiene a todos.Entonces ella se obtiene aplicando un cierto subespacio L′ de dimension p en cualquierade sus puntos, por ejemplo P0. Se concluye que ~α1, ~α2, . . . , ~αk pertenecen a L′, comoellos son l.i. y dimL′ = dim L = p entonces L = L′ y por lo tanto M = M ′.

Diremos que M es la variedad lineal determinada por los p + 1 puntos P0, P1, . . . , Pp.Sea P = (x1, x2, . . . , xn) un punto arbitrario de ella. Entonces

−−→P0P =

p∑

k=1

λk~αk = {x1 − x(0)1 , x2 − x

(0)2 , . . . , xn − x(0)

n } y

~αk = {x(k)1 − x

(0)1 , x

(k)2 − x

(0)2 , . . . , x(k)

n − x(0)n } k = 1, 2, . . . , p

luego

{x1 − x(0)1 , x2 − x

(0)2 , . . . , xn − x(0)

n } =p∑

k=1

λk{x(k)1 − x

(0)1 , x

(k)2 − x

(0)2 , . . . , x(k)

n − x(0)n }

=

{p∑

k=1

λk(x(k)1 − x

(0)1 ), . . . ,

p∑

k=1

λk(x(k)n − x(0)

n )

}

Aplicando la definicion de igualdad de vectores se tiene que

xi − x(0)i =

p∑

k=1

λk(x(k)i − x

(0)i ) i = 1, 2, . . . , n

xi =p∑

k=1

λkx(k)i + x

(0)i

(1−

p∑

k=1

λk

)

Page 78: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

74 CAPITULO 4. VECTORES EN RN

Llamamos λ0 = 1−n∑

k=1

λk entoncesp∑

k=0

λk = 1 y

xi =p∑

k=0

λkx(k)i i = 1, 2, . . . , n (4.2)

Si P ∈ M , existen numeros reales λ0, λ1, . . . , λp tales quep∑

k=0

λk = 1 y las coordenadas

de P pueden ser representadas en la forma (4.2). Como la expresion del vector−−→P0P

en la base ~α1, ~α2, . . . , ~αp es unica, el juego λ0, λ1, . . . , λp es unico.

A la inversa, dados λ0, λ1, . . . , λp tales quep∑

k=0

λk = 1, entonces el punto P cuyas

coordenadas estan dadas por (4.2) esta en la variedad M porque el punto determinadopor

−−→P0P =

p∑

k=0

λk~αk

esta en M .

Se concluye que los puntos de M estan determinados por (4.2) de modo que a cada

juego de numeros λ0, λ1, . . . , λp tales quep∑

k=0

λk = 1 le corresponde exactamente un

punto de M .

Nota: Sean M y M ′ dos variedades lineales en Rn, sean L y L′ subespacios que lasgeneran. Sea D = M∩M ′. Si D 6= ∅, sea P0 ∈ D. Si D = {P0} entonces necesariamenteL ∩ L′ = {~0}. Supongamos que ~α ∈ L ∩ L′ y ~α 6= ~0, entonces ~α ∈ L y el punto P talque

−−→P0P = ~α esta en M , por razon analoga esta en M ′ luego P ∈ D. A la inversa,

supongamos que D tiene mas de un punto, sea P ∈ D,−−→P0P ∈ L∩L′ luego el punto P

se obtiene aplicando un vector de L ∩ L′ en P0. Entonces D = M ∩M ′ es la variedadlineal obtenida aplicando el subespacio L∩L′ en un punto cualquiera de la interseccion.

Definicion 4.10 Sean M y M ′ dos variedades lineales, sean L y L′ dos subespaciosque las generan. Diremos que M y M ′ son mutuamente paralelas si L ⊂ L′ o bienL′ ⊂ L.

Teorema 4.11 Sean M y M ′ variedades lineales mutuamente paralelas. Entonces M∩M ′ = ∅ o bien M ⊂ M ′ o M ′ ⊂ M .

Demostracion: Supongamos que M ∩M ′ 6= ∅, sea L ⊂ L′, entonces L∩L′ = L luegoM ∩ M ′ es la variedad lineal obtenida aplicando L en un punto de la interseccion.Como todos los puntos de M son equivalentes, M ∩M ′ = M luego M ⊂ M ′.

Ejemplo: Demuestre que tres vectores en V 3 son l.d. si y solo si ellos son paralelosa un mismo plano.

Page 79: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.3. VARIEDADES LINEALES 75

Sean ~α, ~β, ~γ ∈ V 3, sea M un plano en R3 generado por el subespacio L de dimensiondos aplicado en un punto P0 ∈ R3. Diremos que ~α es paralelo al plano M si para algunP ∈ M se tiene

−−→P0P = ~α. Supongamos que ~α, ~β, ~γ son paralelos a M . Entonces hay

P, Q, R ∈ M tales que ~α =−−→P0P , ~β =

−−→P0Q, ~γ =

−−→P0R. Si ~α, ~β, ~γ son l.i. entonces M

tiene dimension tres, luego ~α, ~β, ~γ son l.d.

Sean ~α, ~β, ~γ vectores en V 3, sean ellos l.d. Entonces hay λ, µ, ν no todos nulos talesque

λ~α + µ~β + ν~γ = ~0 .

Supongamos que λ 6= 0 entonces ~α = −µλ~β − ν

λ~γ.

Caso 1: Si ~γ = λ~β, sea P0 ∈ R3 arbitrario. Sea P ∈ R3 tal que−−→P0P = ~β. Sea Q

tal que−−→P0P ,

−−→P0Q son l.i. Entonces P0, P , Q determinan un plano M . Sea R tal que−−→

P0R = λ~β. R esta en M , entonces ~β, ~γ son paralelos a M . Por otro lado ~α es de laforma ~α = ηβ, en forma analoga a ~γ, tambien ~α es paralelo a M .

Caso 2: Si ~β y ~γ son l.i., sea P0 ∈ R3 arbitrario, sea L el subespacio generado por ~β y~γ. Sea M el plano obtenido de aplicar L en P0. Como ~α es combinacion lineal de ~β y~γ, ~α ∈ L, luego ~α, ~β, ~γ son paralelos a M .

Ejemplo: Sea M una variedad lineal en Rn, sean P , Q puntos de M . Demuestre quela recta por P y Q esta contenida en M . A la inversa, sea M tal que si R y S pertenecena M , la recta por R y S esta contenida en M . Demuestre que M es una variedad lineal.

Sea P = (x1, x2, . . . , xn), sea Q = (y1, y2, . . . , yn), sea L el subespacio que genera a M .Un punto R esta sobre la recta si y solo si

−→PR = λ

−−→PQ para algun λ. Supongamos que

M se genera aplicando L en M , por hipotesis−−→PQ ∈ L luego λ

−−→PQ ∈ L, por definicion,

R ∈ M .

A la inversa, sea M ⊂ Rn con esta propiedad, sea P0 ∈ M . Sea L el conjunto de losvectores de V n tales que de su aplicacion en P0 se obtienen puntos en M , esto es,

L = {~α ∈ V n : ~α =−−→P0P , P ∈ M}

L es no vacıo pues ~0 =−−−→P0P0 ∈ L. Sea ~α ∈ L, sea λ un numero cualquiera. Sea P ∈ M

tal que ~α =−−→P0P . El punto que resulta de aplicar λ~α en P0 esta en la recta por P0 y

P , luego por hipotesis esta en M . Por lo tanto λ~α ∈ L.

Sean ~α, ~β ∈ L, sean P, Q ∈ M tales que ~α =−−→P0P , ~β =

−−→P0Q. Sea ~γ = λ~α + µ~β una

combinacion lineal de ellos dos. Si ~α, ~β son l.d., ~γ puede expresarse como combinacionlineal de solo uno de ellos y ya se demostro que en tal caso ~γ esta en L. Supongamosentonces que son l.i. Consideremos dos casos.

Caso 1: Si γ es de la forma ~γ = λ(~α − ~β) sea R el punto dado por−−→P0R = −−−→P0Q.

Puesto que R esta en la recta por Q y por P0, R esta en M . Sea S el punto dadopor

−→PS = 1

2

−→PR, punto que esta en la recta por P y R y que por lo tanto esta en M .

Finalmente sea T tal que−−→P0T = 2λ

−−→P0S. T esta en la recta que une P0 con S luego

esta en M , y ademas

−−→P0T = 2λ(

−−→P0P +

−→PS) = 2λ(

12−−→P0P +

12(−−→P0P +

−→PR)) = λ(~α +

−−→P0R) = λ(~α− ~β) = ~γ

Page 80: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

76 CAPITULO 4. VECTORES EN RN

luego ~γ ∈ L.

Caso 2: El caso λ + µ = 0 es el caso anterior, luego supongamos que λ + µ 6= 0. Sea Run punto en la recta que une a P con Q dado por

−→PR =

µ

λ + µ

−−→PQ .

Sea S en la recta por P0 y R dado por−−→P0S = (λ + µ)

−−→P0R. S ∈ M y

−−→P0S = (λ + µ)

−−→P0P +

µ

λ + µ(−−→PP0 +

−−→P0Q)

= (λ + µ)~α− µ~α + µβ

= λ~α + µ~β = ~γ

luego ~γ ∈ L.

Por lo tanto, L es un subespacio de V n y M es una variedad lineal de Rn.

Ejemplo: Sea M una variedad lineal en Rn de dimension menor que n, sea P0 unpunto fuera de M . Sea N el conjunto de los puntos de Rn que estan sobre alguna rectaque une un punto de M con P0. ‘? Es N una variedad lineal?

Sea p = dim M , p < n. Si p = 0 M consiste de un solo punto y por lo tanto N es larecta que une ese punto con P0, luego N es una variedad lineal.

No obstante N deja de ser una variedad lineal si p > 0. Supongamos que N es unavariedad lineal, sea L el subespacio que genera a M , L′ el subespacio que genera aN . Sea R0 un punto arbitrario de M , podemos pensar en M como la variedad queresulta de aplicar L en R0. Como p > 0 es posible encontrar un punto R ∈ M , tal queR 6= R0. Hay entonces un vector ~β ∈ L tal que ~β =

−−→R0R. Claramente M ⊂ N luego

~α =−−−→P0R0 y

−−→P0R = ~α + ~β estan en L′. Sea S un punto en M dado por

−−→R0S = −~β, y

sea T dado por −−→P0T = −−−→P0S = −(

−−−→P0R0 +

−−→R0S) = −~α + ~β

T esta en la recta que pasa por P0 y S luego T ∈ N , entonces −~α + ~β ∈ L′. Como~α + ~β esta tambien en L′ se tiene que 2~β ∈ L′, esto es, el punto Q dado por

−−→P0Q = 2~β

esta en N . Luego Q esta en la recta que une a P con un punto Z ∈ M y como R0 6= R

necesariamente β 6= 0, por lo tanto, para algun real λ se tiene que−−→P0Z = λ

−−→P0Q. Pero

en tal caso se tiene que−−−→R0P0 =

−−→R0Z +

−−→ZP0 =

−−→R0Z − 2λβ ∈ L

luego P0 ∈ M y esto no puede ser.

Sea N ′ el conjunto que resulta de unir N con la variedad lineal que resulta de aplicarL en P0. N ′, a diferencia de N , sı es una variedad lineal. En efecto, sea ~α1, ~α2, . . . , ~αp

una base de L, sea ~α0 =−−−→P0R0. Por hipotesis ~α0 /∈ L luego ~α0, ~α1, ~α2, . . . , ~αp son l.i.

Si Q ∈ N hay R ∈ M tal que Q esta sobre la recta que une P0 con R y por lo tanto,para algun real λ se tiene que

−−→P0Q = λ

−−→P0R. Pero

−−−→P0R0 +

−−→R0R =

−−→P0R. Como

−−→R0R =

p∑

i=1

ai~αi ,−−→P0Q = λ

(~α0 +

p∑

i=1

ai~αi

)

Page 81: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.3. VARIEDADES LINEALES 77

luego−−→P0Q =

p∑

i=0

bi~αi. Sea L′ el subespacio de dimension p + 1 generado por ~α0, ~α1,

~α2, . . . , ~αp. Entonces Q se obtiene aplicando un vector de L′ en P0.

A la inversa, sea ~β =p∑

i=0

bi~αi un vector cualquiera de L′, apliquemos ~β en P0 y sea

Q ∈ Rn tal que ~β =−−→P0Q. Consideremos la recta por P0 y Q. Sea R un punto arbitrario

de dicha recta, entonces−−→P0R = λ~β =

−−−→P0R0 +

−−→R0R luego

−−→R0R =

p∑

i=0

λbi~αi − ~α0 = (λb0 − 1)~α0 +p∑

i=1

λbi~αi .

Si b0 = 0, ~β ∈ L, luego Q esta en la variedad que resulta de copiar L en P0 y por lotanto esta en N ′. Si b0 6= 0, para λ = 1

b0se tiene que R ∈ M luego Q ∈ N .

Ejemplo: Sea M una variedad lineal en Rn de dimension menor que n, sea P0 unpunto fuera de M , sea λ un real fijo. Sea N ⊂ Rn tal que S ∈ N si y solo si hayQ ∈ M tal que

−−→P0S = λ

−−→P0Q. ¿Es N una variedad lineal?

Si λ = 0 N consiste en el punto P0 y por ende es una variedad lineal. Supongamosentonces que λ 6= 0.

Sea S0 un punto fijo de N , S un punto arbitrario de n. Sean Q0, Q ∈ M tales que−−−→P0S0 = λ

−−−→P0Q0,

−−→P0S = λ

−−→P0Q. Sea L el subespacio que genera a M . Entonces

−−→P0S −−−−→P0S0 = λ(

−−→P0Q−−−−→P0Q0)

luego−−→S0S = λ

−−→Q0Q. Pero

−−→Q0Q ∈ L luego S se obtiene aplicando un vector de L en S0.

A la inversa, sea ~α ∈ L, queremos demostrar que al aplicar ~α en S0 obtenemos unpunto S ∈ N . En efecto, si Q es el punto que resulta de copiar 1

λ ~α en Q0 (punto queesta en M) tenemos que

λ−−→P0Q = λ(

−−−→P0Q0 +

−−→Q0Q) =

−−−→P0S0 + ~α

luego−−→P0S = λ

−−→P0Q y S ∈ N .

Entonces N es una variedad lineal paralela a M obtenida de aplicar L en S0.

Ejemplo: Sean L1 y L2 rectas distintas en Rn. Sean P y Q puntos arbitrarios de L1

y L2 respectivamente. Sea L la recta por P y Q. Considere la union M de todas lasrectas L (consideradas como conjuntos de puntos en Rn). ¿Es M una variedad lineal?

Caso 1: L1 ∩L2 6= ∅. Sea ~α la direccion de L1 y ~β la direccion de L2. Supongamos quehay mas de un punto en la interseccion, por ejemplo O1 y O2. Entonces hay λ1, λ2,µ1 y µ2 tales que

−−−→P0O1 = λ1~α

−−−→P0O2 = λ2~α

−−−→O1O2 = (λ2 − λ1)~α−−−→

Q0O1 = µ1~β

−−−→Q0O2 = µ2

~β−−−→O1O2 = (µ2 − µ1)~β

Page 82: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

78 CAPITULO 4. VECTORES EN RN

Pero ~α, ~β son l.i. entonces λ1 = λ2, µ1 = µ2, luego no puede haber mas que un puntoen L1 ∩ L2.

Sea entonces O el punto de interseccion de L1 y L2. Sea R ∈ M , entonces para algunP ∈ L1 y algun Q ∈ L2 se tiene

−→PR = r

−−→PQ. Como P ∈ L1 y Q ∈ L2 hay λ y µ tales

que−−→OP = λ~α y

−−→OQ = µ~β, entonces

−−→OR =

−−→OP +

−→PR = λ~α + r

−−→PQ

−−→OR + r

−−→OP = λ~α + r

−−→OP + r

−−→PQ = λ~α + rµ~β

−−→OR = λ~α− rλ~α + rµ~β = λ(1− r)~α + rµ~β

Sea H el subespacio generado por ~α y ~β. Entonces R se obtiene aplicando un vectorde H en O.

A la inversa, sea ~γ = λ~α + µ~β y apliquemos ~γ en O. Sea R tal que−−→OR = ~γ. Si ~γ = 0,

R = O y entonces R ∈ M (O pertenece a la recta que lo une con algun punto de L1

distinto de el, considerando O como punto de L2). Si µ = 0 pero λ 6= 0, R mismoesta en L1, y esta en la recta que lo une con O, lo cual demuestra que R ∈ M (con-siderando O como punto de L2).

Si µ 6= 0 sea P ∈ L1, P 6= O, y tal que−−→OP 6= λ~α. Hay λp tal que

−−→OP = λp~α. Si Z es

un punto arbitrario de la recta que pasa por P y R se tiene que

−→OZ =

−−→OP +

−→PZ = λ~α + t

−→PR = λ~α + t(~γ − λp~α) = λ~α + t[λ~α + µ~β − λp~α]

Z ∈ L2 si y solo si λ + t(λ− λp) = 0 luego hay un unico Z0 en la recta por P y R queesta sobre L2. Se concluye que R esta sobre la recta por P y Z0, esto es, R ∈ M . Porlo tanto, M es la variedad lineal obtenida aplicando H en O.

Caso 2: L1 y L2 son paralelas, ~α = ~β. Sean O1 ∈ L1, O2 ∈ L2 puntos fijos de L1 y L2

respectivamente. Sea ~γ =−−−→O1O2, sea P ∈ L1, Q ∈ L2, sea R un punto cualquiera de la

recta por P y Q. Entonces−→PR = r

−−→PQ. Ademas

−−→O1P = λ~α y

−−→O2Q = µ~α para algun

par de valores de λ y µ. Entonces ~γ +µ~α = λ~α+−−→PQ luego

−−→PQ = ~γ +(µ−λ)~α y como−−→

O1P +−→PR =

−−→O1R se tiene que λ~α + r

−−→PQ =

−−→O1R,

−−→O1R = λ~α + r{~γ + (µ− λ)~α} ,

si H es el subespacio generado por ~α y ~γ, R se obtiene aplicando un vector de H en O1.

Analogamente al primer caso, al aplicar un vector ~γ ∈ H en O1 obtenemos un puntode M . M es la variedad lineal obtenida de aplicar H en O1.

Caso 3: L1 y L2 se cruzan. Si M fuese una variedad de dimension dos, ella es unplano que contiene a L1 y L2. Entonces L1 y L2 serıan coplanares y no paralelos luegotendrıan un punto comun, ası que M no puede ser una variedad de dimension dos. Sea~α la direccion de L1, ~β la de L2. Sea O1 ∈ L1, sea O2 ∈ L2, sea ~γ =

−−−→O1O2. Entonces ~α,

~β, ~γ son l.i. Sea H el subespacio generado por ~α, ~β, ~γ. Si copiamos H a partir de O1

generamos una variedad lineal M ′ y podemos verificar tal como en el segundo caso queM ⊂ M ′. Pero los puntos que estan sobre un plano por L1 y paralelo a L2 claramenteestan en M ′ pero no en M luego M 6= M ′. Pero cualquier variedad de dimension tres

Page 83: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.4. SUBESPACIOS DE SOLUCIONES 79

que contenga a M debe tener un subespacio generador que contenga a ~α, ~β y ~γ luegoella necesariamente debe ser M ′. Si M ⊂ M ′ y M 6= M ′ ella no puede tener dimensiontres. Es obvio que M no puede tener dimension mayor que tres porque M ⊂ M ′. Seconcluye que M no es una variedad lineal.

4.4. Subespacios de soluciones

Consideremos un sistema homogeneo de s ecuaciones lineales con n incognitas, sea r elrango de la matriz del sistema. Entonces sus soluciones constituyen un subespacio deV n. Puesto que hay n− r soluciones fundamentales ellas son una base del subespacioel cual tiene entonces dimension n− r.

Puesto que las soluciones de un sistema no homogeneo se obtienen sumando a unasolucion dada del sistema todas las soluciones del correspondiente sistema homogeneo,podemos reeinterpretar este resultado en lenguaje geometrico de la siguiente manera:

Sea (x1, x2, . . . , xn) una solucion del sistema no homogeneo. La interpretaremos comoun punto P ∈ Rn. Sea ~α = {y1, y2, . . . , yn} una solucion del correspondiente sistemahomogeneo, sabemos que hay Q ∈ Rn tal que ~α =

−−→PQ. Si O ∈ Rn esta dado por

O = (0, 0, . . . , 0) entonces−−→OP = {x1, x2, . . . , xn} es una solucion vectorial del sistema.

Pero −−→OP +

−−→PQ =

−−→OQ = {x1 + y1, x2 + y2, . . . , xn + yn} ,

luego el punto Q = (x1 + y1, x2 + y2, . . . , xn + yn) es una solucion del sistema nohomogeneo. Se concluye lo siguiente:

Sea L el subespacio de soluciones del correspondiente sistema homogeneo, sea M ⊂ Rn

formado por todas las soluciones del sistema no homogeneo. Si P ∈ M , aplicando unvector ~α ∈ L en P obtenemos un punto Q ∈ M .

A la inversa, sea Q = (z1, z2, . . . , zn) ∈ M , si ~β = {z1, z2, . . . , zn}, ~α = {x1, x2, . . . , xn}entonces

~β − ~α = {z1 − x1, z2 − x2, . . . , zn − xn} ∈ L .

Pero ~α + (~β − ~α) =−−→OQ y ~β − ~α =

−−→PQ luego el punto Q ∈ M se obtiene aplicando

~β − ~α en P .

M es la variedad lineal de dimension n − r obtenida aplicando L en una solucionP ∈ Rn arbitraria del sistema no homogeneo.

Teorema 4.12 Sea L un subespacio de V n. Entonces existe un sistema lineal ho-mogeneo con n incognitas tal que L es su espacio de soluciones.

Demostracion: Sea p = dim L. Sea ~αi = {ai1, ai2, . . . , ain}, i = 1, 2, . . . , p una basede L, sea ~x = {x1, x2, . . . , xn}. Considere el sistema

~αi · ~x =n∑

j=1

aijxi = 0 i = 1, 2, . . . , p (4.3)

Page 84: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

80 CAPITULO 4. VECTORES EN RN

La matriz de (4.3) tiene rango p. Seap∑

j=1

λj~αj ∈ L, sea ~x una solucion de (4.3).

Entonces

~x ·p∑

j=1

λj~αj =p∑

j=1

λj(~x · ~αj) = 0 ,

si ~x es solucion de (4.3) entonces ~x es ortogonal a todos los vectores de L. A la inversa,si ~x es ortogonal a todos los vectores de L, ~x es solucion de (4.3).

Notese que si ~x1, ~x2 son ortogonales a L, α~x1 + β~x2 es ortogonal a L luego L′, elconjunto de los vectores de V n que son ortogonales a L es un subespacio de V n, quecoincide con el espacio de soluciones de (4.3) luego dim L′ = n− p.

Busquemos los vectores ortogonales a L′. Sea ~βi, i = 1, 2, . . . , n−p una base de L′. Unvector ~y = {y1, y2, . . . , yn} es ortogonal a L′ si y solo si

~βi · ~yi = 0 i = 1, 2, . . . , n− p (4.4)

Pero ~β1, ~β2, . . . , ~βn−p son en particular ortogonales a ~α1, ~α2, . . . , ~αp luego

~β1 · ~αi = 0 , ~β2 · ~αi = 0 , . . . , ~βn−p · ~αi = 0 i = 1, 2, . . . , p

(4.4) es un sistema homogeneo cuyas soluciones son todos los vectores ortogonales aL′ luego su espacio de soluciones tiene dimension p. Como ~α1, ~α2, . . . , ~αp son l.i. yestan en dicho espacio de soluciones, tal espacio de soluciones es precisamente L.

Para resumir: Sea L un subespacio de V n de dimension p, sea L′ el subespacio de V n

que consta de todos los vectores ortogonales a L. L′ tiene dimension n− p. Si ~β1, ~β2,. . . , ~βn−p es una base de L′ vemos que el sistema

~βi · ~y = 0 i = 1, 2, . . . , n− p , ~y = {y1, y2, . . . , yn}

tiene como espacio de soluciones a L.

Teorema 4.13 Sea M una variedad lineal en Rn. Entonces existe un sistema linealcon n incognitas tal que el conjunto de sus soluciones es M .

Demostracion: Sea L el subespacio que genera a M , sea p = dim L. Por el teoremaanterior, existe un sistema lineal homogeneo

a11x1 + a12x2 + · · ·+ a1nxn = 0a21x1 + a22x2 + · · ·+ a2nxn = 0

...am1x1 + am2x2 + · · ·+ amnxn = 0

(4.5)

cuyo espacio de soluciones es L.

Page 85: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

4.4. SUBESPACIOS DE SOLUCIONES 81

Supongamos que M se obtiene aplicando L en P = (ξ1, ξ2, . . . , ξn). Definimos bi =n∑

k=1

aikξk, consideremos el sistema

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

...am1x1 + am2x2 + · · ·+ amnxn = bm

(4.6)

Entonces las soluciones de (4.6) se obtienen aplicando el espacio de soluciones de (4.5)en P . Notese que podemos encontrar un sistema (4.5) en que m = n− p de modo que(4.6) tenga exactamente n− p ecuaciones.

Page 86: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

82 CAPITULO 4. VECTORES EN RN

Page 87: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Capıtulo 5

Consideraciones sobredistancia y volumen en Rn

5.1. Metrica euclidiana

Definicion 5.1 Sean P = (x1, x2, . . . , xn), Q = (y1, y2, . . . , yn) puntos de Rn. Lla-maremos distancia entre P y Q a

PQ =

[n∑

i=1

(yi − xi)2] 1

2

Es claro que PQ ≥ 0 y que PQ = 0 sii P = Q.

Notacion: Si a Rn adjuntamos esta notacion de distancia, al producto obtenido lollamaremos “espacio euclidiano n-dimensional”.

Definicion 5.2 Dada la recta por P y Q

zi = xi + λ(yi − xi) i = 1, 2, . . . , n −∞ < λ < ∞

llamaremos longitud del segmento PQ (0 ≤ λ ≤ 1) a la distancia entre P y Q.

Nota: Sea ~α =−−→PQ = {y1−x1, y2−x2, . . . , yn−xn}. La longitud del segmento dirigido−−→

PQ que es una representacion posible de ~α es PQ. Esto motiva la siguiente definicion:

Definicion 5.3 Sea ~α = {a1, a2, . . . , an} un vector de V n. Llamaremos longitud delvector ~α a

‖~α‖ =

(n∑

i=1

a2i

) 12

,

‖~α‖ se llama la norma de ~α.

Notese que ‖~α‖ = 0 sii sus puntos extremos coinciden, esto es, ‖~α‖ = 0 sii ~α = ~0.

83

Page 88: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

84 CAPITULO 5. DISTANCIA Y VOLUMEN EN RN

Teorema 5.4 (Desigualdad de Cauchy-Schwarz) |~α · ~β| ≤ ‖~α‖‖~β‖

Demostracion: Supongamos primero que ‖~α‖ = ‖~β‖ = 1. Como ∀ ~α ∈ V n se tiene‖~α‖2 = ~α · ~α ≥ 0, entonces

‖~β − ~α‖2 = (~β − ~α) · (~β − ~α) = ‖~β‖2 − 2~α · ~β + ‖~α‖2 ≥ 0

luego~α · ~β ≤ 1 (5.1)

Hay igualdad en (5.1) sii ~α = ~β.

Sean ~α, ~β vectores arbitrarios distintos de ~0, por (5.1)~α

‖~α‖ ·~β

‖~β‖≤ 1 luego

~α · ~β ≤ ‖~α‖‖~β‖ (5.2)

Es claro que (5.2) es verdadera si ~α o ~β es ~0, luego (5.2) es cierto para ~α y ~β cualquiera.En particular es cierta para −~α y ~β luego

(−~α) · ~β ≤ ‖ − ~α‖‖~β‖ ⇒ −(~α · ~β) ≤ ‖~α‖‖~β‖

Si ~α y ~β son tales que |~α · ~β| = ‖~α‖‖~β‖ entonces

∣∣∣∣∣~α

‖~α‖ ·~β

‖~β‖

∣∣∣∣∣ = 1. Si~α

‖~α‖ ·~β

‖~β‖= 1

entonces~α

‖~α‖ =~β

‖~β‖, si

‖~α‖ ·~β

‖~β‖= −1,

(−~α)‖~α‖ ·

‖~β‖= 1 y − ~α

‖~α‖ =~β

‖~β‖. Hay

igualdad sii ~α = ±‖~α‖‖~β‖

~β.

Teorema 5.5 (Desigualdad triangular) Sean P , Q, R tres puntos cualesquiera enel espacio euclidiano Rn. Entonces

PR ≤ PQ + QR

Demostracion: Sean−−→PQ = ~α,

−−→QR = ~β, entonces

−→PR =

−−→PQ +

−−→QR luego

PR2

= ‖~α + ~β‖2 = (~α + ~β) · (~α + ~β) = ‖~α‖2 + 2~α · ~β + ‖~β‖2≤ ‖~α‖2 + 2‖~α‖‖~β‖+ ‖~β‖2 = (‖~α‖+ ‖~β‖)2

⇒ PR ≤ ‖~α‖+ ‖~β‖ = PQ + QR

Nota: Hemos demostrado mas que eso, si ~α, ~β ∈ V n entonces

‖~α + ~β‖ ≤ ‖~α‖+ ‖~β‖¿Cuando se produce igualdad?

Supongamos que Q pertenece al segmento PR. Sea P = (x1, x2, . . . , xn), R = (z1, z2, . . . , zn).Entonces Q = (y1, y2, . . . , yn) es tal que

yi = xi + λ(zi − xi) i = 1, 2, . . . , n 0 ≤ λ ≤ 1

Page 89: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

5.2. VOLUMENES Y DETERMINANTES 85

Perozi − yi = zi − xi − (yi − xi) = (1− λ)(zi − xi) i = 1, 2, . . . , n

PQ + QR = |λ|(

n∑

i=1

(zi − xi)2) 1

2

+ |1− λ|(

n∑

i=1

(zi − xi)2) 1

2

= PR

porque 0 ≤ λ ≤ 1 entonces |λ| = λ, |1− λ| = 1− λ.

A la inversa, si hay igualdad y alguno entre−−→PQ y

−−→QR es el vector cero, entonces P = Q

o Q = R y Q esta en el segmento. Supongamos entonces que−−→PQ 6= ~0 y

−−→QR 6= ~0. Hay

igualdad si−−→PQ · −−→QR = ‖−−→PQ‖‖−−→QR‖ luego

−−→PQ

‖−−→PQ‖=

−−→QR

‖−−→QR‖

luego−−→PQ = µ

−−→QR, µ > 0,

yi − xi = µ(zi − yi) i = 1, 2, . . . , n

yi =xi + µzi

1 + µi = 1, 2, . . . , n

yi = xi +µ

µ + 1(zi − xi) 0 < λ =

µ

µ + 1< 1 ,

Q esta en el interior del segmento PR.

Definicion 5.6 Sean ~α, ~β distintos de ~0. Llamaremos angulo γ entre ~α y ~β , sedesigna por γ ≡ (~α, ~β), al angulo γ tal que 0 ≤ γ ≤ π definido por

cos γ =~α · ~β‖~α‖‖~β‖

.

Nota: La desigualdad de Cauhy-Schwarz garantiza que la definicion es correcta.

Nota: Sean ~α, ~β distintos de cero. Entonces cos γ = 0 sii ~α · ~β = 0. Decimos que ~α y~β son ortogonales. En Rn euclideo, los vectores ~ei de la base estandar son mutuamenteortogonales.

5.2. Volumenes y determinantes

A B

CD

E

FP

Queremos describir el parelogramo ABCD analıtica-mente. Sea P un punto interior al paralelogramo obien sobre alguno de sus lados. Por P tracemos par-alelas a AB y AD respectivamente, sean E, F lospuntos de interseccion en AB y AD respectivamente.

−→AP =

−→AE +

−−→EP =

−→AE +

−→AF

Pero−→AE = λ1

−−→AB 0 ≤ λ1 ≤ 1

−→AF = λ2

−−→AD 0 ≤ λ2 ≤ 1

Page 90: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

86 CAPITULO 5. DISTANCIA Y VOLUMEN EN RN

Luego−→AP = λ1

−−→AB + λ2

−−→AD, 0 ≤ λ1, λ2 ≤ 1.

A la inversa, si al aplicar el vector λ1−−→AB + λ2

−−→AD en A para llevarlo al punto O, tal

punto P pertenece al paralelogramo si 0 ≤ λ1, λ2 ≤ 1.

Sean ~α1, ~α2 vectores l.i. en V 2, sea A un punto fijo en R2. Llamaremos paralelogramoal conjunto de los puntos P ∈ R2 en los cuales es transformado el punto A al aplicartodos los vectores de la forma λ1~α1 + λ2~α2, 0 ≤ λ1, λ2 ≤ 1 en A. Diremos que ~α1, ~α2

son los lados del paralelogramo.

Podemos realizar una construccion analoga en R3: Sean ~α1, ~α2, ~α3 vectores l.i. enV 3, sea A un punto fijo de R3. Llamaremos paralelepıpedo al conjunto de los puntosP ∈ R3 en los cuales es transformado el punto A al aplicar todos los vectores de laforma λ1~α1 + λ2~α2 + λ3~α3, 0 ≤ λ1, λ2, λ3 ≤ 1 en A. Diremos que ~α1, ~α2, ~α3 son lasaristas del paralelepıpedo.

Definicion 5.7 Sean ~α1, ~α2, . . . , ~αn vectores l.i. en V n, sea A un punto fijo de Rn.Llamaremos paralelotopo n-dimensional al conjunto de los puntos P ∈ Rn en los

cuales es transformado el punto A al aplicar todos los vectores de la forman∑

i=1

λi~αi,

0 ≤ λi ≤ 1, i = 1, 2, . . . , n en A. Diremos que ~α1, ~α2, . . . , ~αn son las aristas delparalelotopo.

Nuestro objetivo es definir el volumen de un paralelotopo n-dimensional, para estorevisamos las propiedades esenciales que la nocion tiene en dos y tres dimensiones.En primer lugar, debe ser invariante a traslaciones; por definicion, el paralelogramoy el paralelepıpedo son generados trasladando el punto fijo A mediante los vectoresλ1~α1 + λ2~α2, λ1~α1 + λ2~α2 + λ3~α3. Pedir que el volumen del paralelotopo sea invari-ante a traslaciones es, en otras palabras, que area y volumen deben ser independientesde la eleccion del punto A. Si elegimos otro punto, digamos B, el paralelogramo (par-alelepıpedo) resultante debe tener la misma area (volumen). Paralelogramos que tienenlos mismos lados deben tener la misma area, paralelepıpedos con las mismas aristasdeben tener el mismo volumen.

El volumen del paralelotopo n-dimensional debe ser solo una funcion de las aristas, loanotaremos como V (~α1, ~α2, . . . , ~αn).

Para establecer una unidad de medida, al paralelotopo cuyas aristas son los vectoresde la base estandar le asignaremos el volumen 1, esto es

V (~e1, ~e2, . . . , ~en) = 1

En Rn euclıdeo, los vectores ~e1, ~e2, . . . , ~en tienen longitud uno y aristas mutuamenteortogonales. A un paralelotopo n-dimensional cuyas aristas tienen todas la misma lon-gitud y son todas mutuamente ortogonales le llamaremos cubo n-dimensional.

Es claro que debemos exigir V (~α1, ~α2, . . . , ~αn) ≥ 0.

Paralelogramos equivalentes (bases de igual longitud y misma altura) tienen la mismaarea, paralelelıpedos equivalentes (bases de igual area y misma altura) tienen el mismo

Page 91: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

5.2. VOLUMENES Y DETERMINANTES 87

volumen. Veamos el significado de esto en terminos de las aristas:

A B

CD E

a1

a2 a 1

a 2

+

ABCD y ABEC son equivalentes. Los par-alelogramos cuyas aristas son ~α1, ~α2 y ~α1,~α1 + ~α2 tienen la misma area.

A B

CD

E

a1

a2

F

GH

K

L

a3

a3

a1+

Los paralelepıpedos ABCDEFGH yABCDFKLG son equivalentes. Los par-alepıpedos cuyas aristas son ~α1, ~α2, ~α3 y ~α1,~α2, ~α1 + ~α3 tienen el mismo volumen.

Puesto que estas combinaciones se puedenhacer con cualquier par de aristas (cualquiercara puede ser elegida como base) probaremoslo siguiente:

V (~α1, ~α2, . . . , ~αi, . . . , ~αn) = V (~α1, ~α2, . . . , ~αi + ~αk, . . . , ~αn)

donde k 6= i, 1 ≤ k ≤ n.

Si en un paralelotopo de aristas ~α1, ~α2, . . . , ~αn reemplazamos la arista ~αi, 1 ≤ i ≤ npor ~αi + ~αk, 1 ≤ k ≤ n, k 6= i, el nuevo paralelotopo de aristas ~α1, ~α2, . . . , ~αi+~αk,. . . , ~αn tiene el mismo volumen que el original.

A B

CD

EF

a1

a2

a2

l

Consideremos los paralelogramos ABCD y ABEF de aris-tas ~α1, ~α2 y ~α1, λ~α2, λ real.

Area ABCD

Area ABEF=

AD

AF=

‖~α2‖‖λ~α2‖ =

1|λ|

Pedimos entonces que

V (~α1, ~α2, . . . , λ~αi, . . . , ~αn) = |λ|V (~α1, ~α2, . . . , ~αi, . . . , ~αn)

Si en un paralelotopo de aristas ~α1, ~α2, . . . , ~αn reemplazamos la arista ~αi por λ~αi elvolumen queda multiplicado por |λ|.

En resumen, definiremos el volumen de un paralelotopo n-dimensional de aristas ~α1,~α2, . . . , ~αn como una funcion real V (~α1, ~α2, . . . , ~αn) tal que

i.- V (~α1, ~α2, . . . , ~αn) ≥ 0

ii.- V (~α1, ~α2, . . . , ~αi, . . . , ~αn) = V (~α1, ~α2, . . . , ~αi + ~αk, . . . , ~αn) i 6= k

iii.- V (~α1, ~α2, . . . , λ~αi, . . . , ~αn) = |λ|V (~α1, ~α2, . . . , ~αn)

iv.- V (~e1, ~e2, . . . , ~en) = 1

Queremos demostrar que tal funcion existe y es unica. Quitemos la restriccion de quelos vectores ~α1, ~α2, . . . , ~αn deben ser l.i. y permitamos que cualquier n-tupla de vec-tores de V n pueda ser argumento de la funcion V (~α1, ~α2, . . . , ~αn). Con este proposito

Page 92: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

88 CAPITULO 5. DISTANCIA Y VOLUMEN EN RN

introducimos una nueva funcion real D(~α1, ~α2, . . . , ~αn) donde (~α1, ~α2, . . . , ~αn) es unan-tupla de vectores de V n (no necesariamente l.i) y que satisface las propiedades sigu-ientes:

i.- D(~α1, ~α2, . . . , ~αi, . . . , ~αn) = D(~α1, ~α2, . . . , ~αi + ~αk, . . . , ~αn) i 6= k

ii.- D(~α1, ~α2, . . . , λ~αi, . . . , ~αn) = λD(~α1, ~α2, . . . , ~αi, . . . , ~αn)

iii.- D(~e1, ~e2, . . . , ~en) = 1

Sean ~αi = {ai1, ai2, . . . , ain}, i = 1, 2, . . . , n, sea A a matriz de n×n cuyas filas son losvectores ~αi. No es difıcil demostrar, usando i), ii) y iii) que D(~α1, ~α2, . . . , ~αn) goza delas mismas propiedades que las de las filas (columnas) de det A, a saber:

i.- D(~α1, ~α2, . . . , ~αi, . . . , ~αn) = D(~α1, ~α2, . . . , ~αi + λ~αk, . . . , ~αn) i 6= k, λ real.

ii.- D(~α1, ~α2, . . . , ~αi, . . . , ~αn) = D(~α1, ~α2, . . . , ~αi +n∑

k=1,k 6=i

λk~αk, . . . , ~αn).

iii.- Si ~αi = 0, 1 ≤ i ≤ n, D(~α1, ~α2, . . . , ~αn) = 0.

iv.- Si ~α1, ~α2, . . . , ~αn son l.d., D(~α1, ~α2, . . . , ~αn) = 0.

v.- D(~α1, ~α2, . . . , ~αi, . . . , ~αk, . . . , ~αn) = −D(~α1, ~α2, . . . , ~αk, . . . , ~αi, . . . , ~αn).

vi.- D(~β + ~γ, ~α2, . . . , ~αn) = D(~β, ~α2, . . . , ~αn) + D(~γ, ~α2, . . . , ~αn).

vii.- Sea ~αi =r∑

k=1

βki , i = 1, 2, . . . , n

⇒ D(~α1, ~α2, . . . , ~αn) =r∑

ν1,...,νn=1

D(βν11 , βν2

2 , βν33 , . . . , βνn

n ) .

viii.- Si ~α1, ~α2, . . . , ~αn son l.i., D(~α1, ~α2, . . . , ~αn) 6= 0.

Tenemos que demostrar que existe una funcion que satisface las propiedades i), ii) yiii) y que es unica. La demostracion se hace por induccion y no la entregaremos porqueexcede el ambito de estas notas. Pero lo que se obtiene esencialmente es lo siguiente:

Si existe un funcion D(~α1, ~α2, . . . , ~αn) que satisface i), ii), iii) ella debe tener unacierta forma, luego se verifica que la funcion de la forma obtenida satisface i), ii), iii)lo cual prueba la existencia de D(~α1, ~α2, . . . , ~αn). Finalmente, usando vii) y viii) seobtiene una expresion explıcita de D(~α1, ~α2, . . . , ~αn) la cual coincide con la definicionde det A. Entonces D(~α1, ~α2, . . . , ~αn) = det A. A D(~α1, ~α2, . . . , ~αn) la llamaremos fun-cion determinante.

Esto ultimo prueba que si H(~α1, ~α2, . . . , ~αn) es otra funcion que satisface i), ii), iii)entonces ella tiene necesariamente la misma forma que D(~α1, ~α2, . . . , ~αn) y como sa-tisface las propiedades vii), viii), H(~α1, ~α2, . . . , ~αn) = det A.

Definamos V (~α1, ~α2, . . . , ~αn) = |D(~α1, ~α2, . . . , ~αn)|.

Page 93: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

5.2. VOLUMENES Y DETERMINANTES 89

Es claro que se satisfacen las 4 propiedades que le exigimos al volumen. Queremosdemostrar que es la unica que las satisface.

Sea la funcion sgnD definida por

sgnD =

1 si D > 00 si D = 0−1 si D < 0

Consideremos V (~α1, ~α2, . . . , ~αn)sgn D(~α1, ~α2, . . . , ~αn). Queremos demostrar que ellasatisface las propiedades i), ii), iii) de la funcion determinante.

Ni V (~α1, ~α2, . . . , ~αn) ni sgn D(~α1, ~α2, . . . , ~αn) cambian cuando se reemplaza ~αi por~αi + ~αk luego satisface i).

Como (sgn a)(sgn b) = sgn (ab), al reemplazar ~αi por λ~αi la funcion queda multipli-cada por |λ|sgnλ = λ luego satisface ii). Es claro que satisface iii). Entonces

V (~α1, ~α2, . . . , ~αn)sgn D(~α1, ~α2, . . . , ~αn) = D(~α1, ~α2, . . . , ~αn)

Si D(~α1, ~α2, . . . , ~αn) 6= 0,

V (~α1, ~α2, . . . , ~αn)(sgn D(~α1, ~α2, . . . , ~αn))2 = sgn D(~α1, ~α2, . . . , ~αn)D(~α1, ~α2, . . . , ~αn)= |D(~α1, ~α2, . . . , ~αn)| ,

luego observe que si D 6= 0, (sgnD)2 = 1. Si D(~α1, ~α2, . . . , ~αn) = 0, la propiedadviii) de la funcion determinante nos permite concluir que los vectores ~α1, ~α2, . . . ,~αn son l.d., pero cualquier funcion que satisface las propiedades ii) y iii) de la fun-cion determinante es 0 si los vectores ~α1, ~α2, . . . , ~αn son l.d. Como V (~α1, ~α2, . . . , ~αn)las satisface, V (~α1, ~α2, . . . , ~αn) = 0 si los vectores ~α1, ~α2, . . . , ~αn son l.d. Entonces|D(~α1, ~α2, . . . , ~αn)| es la unica funcion que satisface las propiedades i), ii), iii), iv)exigidas al volumen.

Definicion 5.8 Definimos como volumen de un paralelotopo n-dimensional en Rn

euclıdeo aV (~α1, ~α2, . . . , ~αn) = |D(~α1, ~α2, . . . , ~αn)|

Page 94: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

90 CAPITULO 5. DISTANCIA Y VOLUMEN EN RN

Page 95: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Capıtulo 6

Sistemas de coordenadas

Recordemos la definicion (4.8). Sea M una variedad lineal, P0 un punto de M y L elsubespacio que la genera, supongamos L tiene dimension p > 0. Si ~α1, ~α2, . . . , ~αp esuna base de L y P un punto arbitrario de M , podemos escribir (de manera unica)

−−→P0P =

p∑

i=1

yi~αi

Decimos que y1, y2, . . . , yp son las coordenadas del punto P con respecto al sistema decoordenadas [P0; ~α1, ~α2, . . . , ~αp]. Puesto que Rn es una variedad lineal n-dimensional,si ~β1, ~β2, . . . , ~βn es una base de V n y Q ∈ Rn, para cada P ∈ Rn podemos escribir(de manera unica)

−−→QP =

n∑

i=1

x∗i ~βi

Decimos que x∗1, x∗2, . . . , x∗n son las coordenadas del punto P en el sistema de coorde-nadas [Q; ~β1, ~β2, . . . , ~βn], el punto Q tiene coordenadas 0,0,. . . , 0.

Elijamos como origen el punto O = (0, 0, . . . , 0) y como base de V n la base estandar~e1, ~e2, . . . , ~en. Sea P = (x1, x2, . . . , xn) un punto arbitrario de Rn. Entonces

−−→OP = {x1 − 0, x2 − 0, . . . , xn − 0} = {x1, x2, . . . , xn}

= x1{1, 0, . . . , 0}+ x2{0, 1, . . . , 0}+ · · ·+ xn{0, 0, . . . , 1}

=n∑

i=1

xi~ei .

Con respecto al sistema de coordenadas [O;~e1, ~e2, . . . , ~en], las coordenadas de P coin-ciden con los elementos de la n-tupla (x1, x2, . . . , xn).

Definicion 6.1 Sea [Q; ~β1, ~β2, . . . , ~βn] un sistema de coordenadas en Rn, sea ~α =

{a1, a2, . . . , an} un vector de V n. Entonces ~α =n∑

i=1

a∗i ~βi (en forma unica). Dire-

mos que a∗1, a∗2, . . . , a∗n son las componentes de ~α en el sistema de coordenadas[Q; ~β1, ~β2, . . . , ~βn], o bien, las componentes del vector α con respecto a la base ~β1, ~β2,. . . , ~βn.

91

Page 96: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

92 CAPITULO 6. SISTEMAS DE COORDENADAS

Es claro que las componentes del vector ~α son independientes de la eleccion del origenQ.

Notacion: De ahora en adelante escribiremos P = (x1, x2, . . . , xn) solo si x1, x2, . . . ,xn son las coordenadas de P en [O;~e1, ~e2, . . . , ~en] y escribimos ~α = {a1, a2, . . . , an}solo si a1, a2, . . . , an son las componentes de ~α con respecto a la base ~e1, ~e2, . . . , ~en.

Sea [Q; ~β1, ~β2, . . . , ~βn] un sistema de coordenadas en Rn, sea P ∈ Rn de coordenadasx∗1, x∗2, . . . , x∗n, sea R ∈ Rn de coordenadas y∗1 , y∗2 , . . . , y∗n. Entonces

−→PR =

−−→PQ +

−−→QR = −

n∑

i=1

x∗i ~βi +n∑

i=1

y∗i ~βi =n∑

i=1

(y∗i − x∗i )~βi

luego−→PR tiene componentes (y∗i − x∗i ), i = 1, 2, . . . , n en el sistema dado. Si ~α =

n∑

i=1

a∗i ~βi, λ~α =n∑

i=1

(λa∗i )~βi luego λ~α tiene componentes λa∗i , i = 1, 2, . . . , n en el

sistema dado. Si ~β =n∑

i=1

b∗i ~βi entonces

~α + ~β =n∑

i=1

(a∗i + b∗i )~βi ,

~α + ~β tiene componentes a∗i + b∗i , i = 1, 2, . . . , n en el sistema dado.

Sean ~α1, ~α2, . . . , ~αn n vectores en V n, sea ~αi =n∑

k=1

a∗ik~βk, sea

(a∗ik) =

a∗11 a∗12 · · · a∗1n

a∗21 a∗22 · · · a∗2n...

.... . .

...a∗m1 a∗m2 · · · a∗mn

Llamamos ~α∗i = {a∗i1, a∗i2, . . . , a∗in}, i = 1, 2, . . . , n y supongamos quem∑

i=1

λi~α∗i = ~0.

Entoncesm∑

i=1

λia∗ik = ~0, k = 1, 2, . . . , n y por lo tanto

m∑

i=1

λi~αi =m∑

i=1

λi

(n∑

k=1

a∗ik~βk

)=

n∑

k=1

(m∑

i=1

λia∗ik

)~βk = ~0 .

Luego si las filas de (a∗ik) son l.d. entonces ~α1, ~α2, . . . , ~αn son l.d. con exactamente lamisma relacion lineal.

A la inversa, supongamos quem∑

i=1

λi~αi = 0, entonces

n∑

k=1

(m∑

i=1

λia∗ik

)~βk = 0 ⇒

m∑

i=1

λia∗ik = 0 k = 1, 2, . . . , n

Page 97: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.1. TRANSFORMACION DE COORDENADAS 93

luego si los vectores ~α1, ~α2, . . . , ~αn son l.d. las filas de (a∗ik) son l.d. con la mismarelacion lineal.

Se concluye que el numero de vcetores l.i. que contiene un sistema linealmente inde-pendiente maximal del conjunto ~α1, ~α2, . . . , ~αm es igual al numero de vectores quecontiene un sistema linealmente independiente maximal del conjunto de filas de lamatriz (a∗ik) y es por lo tanto igual al rango de dicha matriz.

6.1. Transformacion de coordenadas

Problema: Sean [Q′; ~β1, ~β2, . . . , ~βn], y [Q′′;~γ1, ~γ2, . . . , ~γn] dos sistemas de coordenadasen Rn. Sea P ∈ Rn y supongamos que se conocen las coordenadas de P en el primersistema. Se piden las coordenadas de P en el segundo sistema.

Sean

−−−→Q′Q′′ =

n∑

i=1

si~βi

−−−→Q′′Q′ =

n∑

i=1

ti~γi

~βk =n∑

i=1

vik~γi ~γk =n∑

i=1

uik~βi k = 1, 2, . . . , n

Sean x1, x2, . . . , xn las coordenadas de P en el primer sistema, y1, y2, . . . , yn lascoordenadas de P en el segundo sistema. Entonces

−−→Q′P =

n∑

i=1

xi~βi

−−→Q′′P =

n∑

i=1

yi~γi

Pero−−→Q′′P =

−−−→Q′′Q′ +

−−→Q′P luego

n∑

i=1

yi~γi =n∑

i=1

ti~γi +n∑

k=1

xk~βk =

n∑

i=1

ti~γi +n∑

i=1

(n∑

k=1

vikxk

)~γi

yi = ti +n∑

k=1

vikxk i = 1, 2, . . . , n . Analogamente,−−→Q′P =

−−−→Q′Q′′ +

−−→Q′′P luego

xi = si +n∑

k=1

uikyk i = 1, 2, . . . , n

(6.1)Decimos que (6.1) es una transformacion de coordenadas del primer sistema al segundoo viceversa.

Problema: ¿Como cambian las componentes de un vector frente a una transformacionde coordenadas?

Sea ~α ∈ V n con componentes a1, a2, . . . , an con respecto al primer sistema y compo-nentes b1, b2, . . . , bn con respecto al segundo sistema.

Page 98: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

94 CAPITULO 6. SISTEMAS DE COORDENADAS

~α =n∑

k=1

ak~βk =

n∑

k=1

bk~γk

n∑

i=1

bi~γi =n∑

i=1

(n∑

k=1

vikak

)~γi

bi =n∑

i=1

vikak i = 1, 2, . . . , n

Analogamente

n∑

i=1

ai~βi =

n∑

i=1

(n∑

k=1

uikbk

)~βi

ai =n∑

k=1

uikbk i = 1, 2, . . . , n

Analicemos con mayor detencion las expresiones

~βk =n∑

i=1

vik~γi

~γk =n∑

i=1

uik~βi

k = 1, 2, . . . , n

Como ~β1, ~β2, . . . , ~βn son l.i., el rango de (vik) es igual a n. Como ~γ1, ~γ2, . . . , ~γn sonl.i., el rango de (uik) es igual a n. Se concluye que det(vik) y det(uik) son distintos decero.

Problema: Supongamos que solo [Q′; ~β1, ~β2, . . . , ~βn] es dado y que tambien el sistemade ecuaciones

yi = ti +n∑

k=1

vikxk i = 1, 2, . . . , n

con det(vik) 6= 0 es dado. Este sistema de ecuaciones le asigna a un punto P de co-ordenadas x1, x2, . . . , xn con respecto al sistema [Q′; ~β1, ~β2, . . . , ~βn] una n-tupla denumeros y1, y2, . . . , yn. ¿Existe un sistema de coordenadas donde las coordenadas deP son precisamente y1, y2, . . . , yn ?

Sea Vik el adjunto de vik en det(vik). Revisando la demostracion de la regla de Cramerse obtiene que

xk =

n∑

i=1

(yi − ti)Vik

det(vik)k = 1, 2, . . . , n

Llamemos

sk = −

n∑

i=1

tiVik

det(vik)uki =

Vik

det(vik)k = 1, 2, . . . , n

Page 99: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.2. VARIEDADES LINEALES Y SISTEMAS DE ECUACIONES 95

Obtenemos ası el sistema

xk = sk +n∑

i=1

ukiyi k = 1, 2, . . . , n

Sea Q′′ el punto tal que−−−→Q′Q′′ =

n∑

i=1

si~βi y definamos ~γ1, ~γ2, . . . , ~γn por

~γk =n∑

i=1

uik~βi .

El analisis previo nos dice que ~γ1, ~γ2, . . . , ~γn son l.i. entonces [Q′′;~γ1, ~γ2, . . . , ~γn] es elsistema de coordenadas pedido.

Analogamente, dada una base ~β1, ~β2, . . . , ~βn y el sistema de ecuaciones

bi =n∑

i=1

vikak i = 1, 2, . . . , n det(vik) 6= 0

podemos encontrar una segunda base ~γ1, ~γ2, . . . , ~γn tal que estas ecuaciones represen-tan las ecuaciones de transicion para las componentes de un vector al pasar de la base~β1, ~β2, . . . , ~βn a la base ~γ1, ~γ2, . . . , ~γn.

6.2. Variedades lineales y sistemas de ecuaciones

En otro capıtulo demostramos que toda variedad lineal es representable mediante unsistema lineal de ecuaciones en el sentido que M consiste precisamente de aquellospuntos que son las soluciones del sistema de ecuaciones, pero en la deduccion esta im-plıcito que el sistema de coordenadas es [O;~e1, ~e2, . . . , ~en]. ¿Cual es la situacion cuandoel sistema de coordenadas es arbitrario?

Sea [Q′; ~β1, ~β2, . . . , ~βn] un sistema de coordenadas en el cual toda variedad lineal dedimension p es representable por un sistema lineal de ecuaciones cuya matriz tienerango n − p y tal que, a la inversa, todo sistema de esa naturaleza representa unavariedad lineal de dimension p. Existen sistemas de coordenadas ası, [O;~e1, ~e2, . . . , ~en]es uno.

Supongamos que la variedad lineal M de dimension p esta dada por el sistema deecuaciones

n∑

k=1

aikxk = bi i = 1, 2, . . . ,m (6.2)

donde el rango de (aik) es n− p.

Sea [Q′′;~γ1, ~γ2, . . . , ~γn] otro sistema de coordenadas y supongamos que las ecuacionesde transicion para pasar del sistema [Q′′;~γ1, ~γ2, . . . , ~γn] al sistema [Q′; ~β1, ~β2, . . . , ~βn]son

xi = si +n∑

k=1

uikyk i = 1, 2, . . . , n

Page 100: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

96 CAPITULO 6. SISTEMAS DE COORDENADAS

Llamemos

~δi = {ui1, ui2, . . . , uin} i = 1, 2, . . . , n

~y = {y1, y2, . . . , yn}

Entonces xi = si + ~δi · ~y, sustituyendo en (6.2) se tiene

n∑

k=1

aik(sk + ~δk · ~y) = bi

(n∑

k=1

aik~δk

)· ~y = bi −

n∑

k=1

aiksk i = 1, 2, . . . , n (6.3)

Sea P ∈ M , sean x1, x2, . . . , xn sus coordenadas con respecto a [Q′; ~β1, ~β2, . . . , ~βn],sean y1, y2, . . . , yn con respecto a [Q′′;~γ1, ~γ2, . . . , ~γn]. Por hipotesis las coordenadasx1, x2, . . . , xn satisfacen las ecuaciones (6.2), como xi = si + ~δi · ~y, al reemplazar lasxi en (6.2), obtenemos que las yi satisfacen el sistema (6.3).

A la inversa, sean y1, y2, . . . , yn las coordenadas de un punto P en Rn con respectoa [Q′′;~γ1, ~γ2, . . . , ~γn] y supongamos que satisfacen (6.3). Entonces sus coordenadas x1,x2, . . . , xn con respecto a [Q′; ~β1, ~β2, . . . , ~βn] satisfacen xi = si + ~δi · ~y, i = 1, 2, . . . , n

y por (6.3)n∑

k=1

aik(sk + ~δk · ~y) = bi luego

n∑

k=1

aikxk = bi i = 1, 2, . . . , n

y por lo tanto P ∈ M y (6.3) representa a M en [Q′′;~γ1, ~γ2, . . . , ~γn].

Consideremos la matriz de coeficientes del sistema (6.3), llamemos

~αi =n∑

k=1

aik~δk i = 1, 2, . . . , n

a sus vectores fila.

Los vectores ~δ1, ~δ2, . . . , ~δn son l.i., luego, por un teorema previo, el numero de vec-tores de cualquier subconjunto linealmente independiente maximal de ~α1, ~α2, . . . , ~αn

es igual al rango de (aik) el cual es n−p, de modo que la matriz del sistema (6.3) tienerango n− p.

Nota: Todo sistema lineal de ecuaciones en las variables y1, y2, . . . , yn y con matrizde rango n− p representa una variedad lineal de dimension p en cualquier sistema decoordenadas [Q′′;~γ1, ~γ2, . . . , ~γn]. Basta usar las ecuaciones

yi = ti +n∑

k=1

vikxk i = 1, 2, . . . , n

y el sistema transforma a un sistema en las variables x1, x2, . . . , xn con matriz derango n−p y referido al sistema de coordenadas [Q′; ~β1, ~β2, . . . , ~βn] donde por hipotesis

Page 101: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.3. VOLUMENES Y SISTEMAS DE COORDENADAS CARTESIANAS 97

un tal sistema representa a una variedad lineal de dimension p.

Si en (6.2) hacemos bi = 0, i = 1, 2, . . . , n, entonces xi = ~δi · ~y, i = 1, 2, . . . , n y por lotanto (6.3) es homogeneo; por teoremas previos se tiene entonces:

Un subespacio de dimension p se representa en cualquier sistema de coordenadas porun sistema homogeneo de ecuaciones cuya matriz tiene rango n − p; a la inversa,cualquier sistema lineal homogeneo cuya matriz tiene rango n − p representa a unsubespacio de dimension p.

6.3. Volumenes y sistemas de coordenadas cartesianas

Problema: Sean ~α1, ~α2, . . . , ~αn n vectores cuyas componentes estan dadas en el sis-tema de coordenadas [Q; ~β1, ~β2, . . . , ~βn]. Se pide el volumen del paralelotopo de aristas~α1, ~α2, . . . , ~αn.

Sean ~αi = {ai1, ai2, . . . , ain}, i = 1, 2, . . . , n, sean a∗i1, a∗i2, . . . , a∗in las componentes de~αi con respecto a la base ~β1, ~β2, . . . , ~βn, se tiene

~αi =n∑

ν=1

a∗iν ~βν

Sean vi1, vi2, . . . , vin las componentes del vector ~βi con respecto a la base estandar,se tiene

~βi = {vi1, vi2, . . . , vin} =n∑

k=1

vik~ek

Puesto que ~αi =n∑

k=1

aik~ek tenemos que

n∑

k=1

aik~ek =n∑

ν=1

(a∗iν

n∑

k=1

vνk~ek

)=

n∑

k=1

(n∑

ν=1

a∗iνvνk

)~ek

luego

aik =n∑

ν=1

a∗iνvνk i, k = 1, 2, . . . , n

esto es, la matriz (aik) resulta de multiplicar las matrices (a∗ik) y (vik), luego

det(aik) = det(a∗ik) det(vik) (6.4)

donde el volumen pedido es | det(aik)|. La ecuacion (6.4) dice que tal volumen puedeser calculado conociendo las componentes de las aristas en el sistema [Q; ~β1, ~β2, . . . , ~βn]y las expresiones de los vectores ~βi en la base estandar.

Problema: ¿Como se comporta el producto escalar en un sistema de coordenadas[Q; ~β1, ~β2, . . . , ~βn]?

Page 102: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

98 CAPITULO 6. SISTEMAS DE COORDENADAS

Sean

~a = {a1, a2, . . . , an} ~a =n∑

i=1

a∗i ~βi

~b = {b1, b2, . . . , bn} ~b =n∑

i=1

b∗i ~βi

~a ·~b =n∑

i=1

aibi =

(n∑

i=1

a∗i ~βi

)·(

n∑

i=1

b∗k~βk

)

=n∑

i=1

n∑

k=1

a∗i b∗k(~βi · ~βk)

Vemos que la formula no es analoga a la original en que las componentes estan dadascon respecto a la base estandar. Si ~βi · ~βk = 0 i 6= k, ~βi · ~βk = 1 si i = k entonces

~a ·~b =n∑

i=1

a∗i b∗i (6.5)

Demostremos que la condicion ~βi · ~βk = δik es necesaria para que se cumpla (6.5).Tomemos ~a = ~βi, ~b = ~βk, entonces a∗j = 0 si j 6= i, a∗i = 1, analogamente para b∗i ,luego ~βi · ~βk = δik.

Definicion 6.2 Diremos que ~α1, ~α2, . . . , ~αp forman un sistema ortonormal de vec-tores si ~αi · ~αk = δik, i, k = 1, 2, . . . , p

Sip∑

i=1

λi~αi = 0 entoncesp∑

i=1

λi(~αi · ~αk) = 0; esto nos dice que todos los λk son cero,

luego todo sistema ortonormal de vectores consta de vectores l.i.

Definicion 6.3 Si [Q; ~β1, ~β2, . . . , ~βn] es tal que ~β1, ~β2, . . . , ~βn es ortonormal diremosque [Q; ~β1, ~β2, . . . , ~βn] es un sistema de coordenadas cartesianas.

Vemos que [Q;~e1, ~e2, . . . , ~en] es un sistema de coordenadas cartesianas luego no hayproblema con su existencia.

Sean [Q′; ~β1, ~β2, . . . , ~βn], [Q′′;~γ1, ~γ2, . . . , ~γn] cartesianos, sean

~βk =n∑

i=1

vik~γi

~γk =n∑

i=1

uik~βi

k = 1, 2, . . . , n

Entonces ~βk · ~γj = vjk, ~γk · ~βj = ujk, 1 ≤ j, k ≤ n. Luego si en la segunda ecuacionintercambiamos k por j se tiene que

vjk = ukj 1 ≤ j, k ≤ n

Page 103: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.3. VOLUMENES Y SISTEMAS DE COORDENADAS CARTESIANAS 99

de donde

~γk =n∑

i=1

vki~βi (6.6)

Como ~γ1, ~γ2, . . . , ~γn es ortonormal

~βk · ~βj =n∑

i=1

vikvij = δkj k, j = 1, 2, . . . , n

Analogamente se tiene

~γk · ~γj =n∑

i=1

vkivji = δkj k, j = 1, 2, . . . , n

Tenemos entonces que las filas y las columnas de (vik) forman sistemas ortonormalesde vectores. Tales matrices se dicen ortogonales.

Enn∑

i=1

vikvij = δkj multipliquemos por Vhj donde Vhj es el adjunto de vhj en det(vkj),

donde h es un entero fijo entre 1 y n, luego sumamos las n ecuaciones resultantes:

n∑

j=1

(n∑

i=1

vikvijVhj

)=

n∑

j=1

δkjVhj

n∑

i=1

n∑

j=1

vijVhj

vik = Vhk

n∑

i=1

(δih det(vik))vik = Vhk

vhk det(vik) = Vhk

Como det(vik) 6= 0 se tiene

vhk =Vhk

det(vik)1 ≤ h ≤ n, 1 ≤ k ≤ n (6.7)

Estas relaciones caracterizan a una matriz ortogonal, en efecto

n∑

i=1

vikvij =n∑

i=1

vikVij

det(vik)= δkj

n∑

i=1

vkivji =n∑

i=1

vkiVji

det(vik)= δkj

Notese que las relaciones (6.7) provienen exclusivamente de

~βk · ~βj =n∑

i=1

vikvij = δkj

pero las relaciones

~γk · ~γj =n∑

i=1

vkivji = δkj

Page 104: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

100 CAPITULO 6. SISTEMAS DE COORDENADAS

pueden ser deducidas de las relaciones (6.7), se concluye:

Si las columnas de una matriz forman un sistema ortonormal, sus filas tambien formanun sistema ortonormal.

Por otra parte, si las filas de una matriz forman un sistema ortonormal, las columnasde la traspuesta forman un sistema ortonormal y por lo tanto las filas de la traspuestatambien, luego si las filas de una matriz forman un sistema ortonormal, sus columnastambien forman un sistema ortonormal.

Sea (vik) ortogonal, entonces

(det(vik))2 = det(vik) det(aik) , donde (aik) = (vik)t

= det

(n∑

ν=1

viνaνk

)= det

(n∑

ν=1

viνvkν

)= 1

∴ | det(vik)| = 1

Problema: Queremos calcular el volumen de un paralelotopo cuyas aristas ~α1, ~α2,. . . , ~αn estan en un sistema cartesiano [Q; ~β1, ~β2, . . . , ~βn].

Si ~αi =n∑

k=1

a∗ik~βk y ~βi =n∑

k=1

vik~ek como det(ak) = det(a∗ik) det(vik) el volumen pedido

es| det(aik)| = |det(a∗ik)||det(vik)| ,

como ~β1, ~β2, . . . , ~βn es ortonormal entonces |det(vik)| = 1 luego el volumen pedidoes | det(a∗ik)|. Se concluye que la formula para el volumen es la misma para todos lossistemas cartesianos.

6.4. Deformacion continua de sistemas de coorde-nadas

Nota: Sabemos que si ~β1, ~β2, . . . , ~βn son l.i., D(~β1, ~β2, . . . , ~βn) 6= 0. Puesto queD(λ~β1, ~β2, . . . , ~βn) = λD(~β1, ~β2, . . . , ~βn), si r es un real arbitrario distinto de cero,siempre existe una base ~β1, ~β2, . . . , ~βn donde D(~β1, ~β2, . . . , ~βn) = r. En efecto, sea ~γ1,~γ2, . . . , ~γn una base cualquiera, sea D(~γ1, ~γ2, . . . , ~γn) = d 6= 0,

D(r

d~γ1, ~γ2, . . . , ~γn) =

r

dD(~γ1, ~γ2, . . . , ~γn) = r ,

llame ~β1 = rd~γ1, ~βi = ~γi, i = 2, 3, . . . , n.

Dividamos los sistemas de coordenadas en dos clases; aquellos para los cuales el va-lor de D(~β1, ~β2, . . . , ~βn) es positivo y aquellos para los cuales D(~β1, ~β2, . . . , ~βn) < 0.Queremos demostrar que dos sistemas de la misma clase pueden ser deformados con-tinuamente el uno en el otro sin que D(~β1, ~β2, . . . , ~βn) adopte el valor 0 durante elproceso de deformacion y que esto no es posible para dos sistemas de distinta clase.Intuitivamente, esto significa que dos n-edros de la misma clase pueden hacerse coin-cidir mediante un cambio “suave” de sus angulos y longitudes, piense por ejemplo en

Page 105: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.4. DEFORMACION CONTINUA DE SISTEMAS DE COORDENADAS 101

dos trıpodes en R3. Tratemos de precisar estas ideas.

Sean ~β = {v1, v2, . . . , vn}, ~γ = {u1, u2, . . . , un}, sean fi(t), i = 1, 2, . . . , n funcionescontinuas definidas en c ≤ t ≤ d tales que fi(c) = vi, fi(d) = ui, i = 1, 2, . . . , n.

Entonces {f1(c), f2(c), . . . , fn(c)} = ~β, {f1(d), f2(d), . . . , fn(d)} = ~γ, la funcion vecto-rial

~f(t) = {f1(t), f2(t), . . . , fn(t)}es una funcion continua de t en c ≤ t ≤ d. Decimos que el vector ~β es deformadocontinuamente en el vector ~γ.

El intervalo [c, d] es irrelevante. Sea [c′, d′] otro intervalo, sea

t =(c− d)t′ + dc′ − cd′

c′ − d′

Si t′ varıa de c′ a d′, t recorre (c, d) de c a d, entonces

fi

((c− d)t′ + dc′ − cd′

c′ − d′

), i = 1, 2, . . . , n

definidas en [c′, d′] son funciones gi(t)′ tales que ~g(c′) = ~β, ~g(d′) = ~γ luego ~g(t′) cumplecon el mismo proposito de ~f(t).

Sean [Q; ~β1, ~β2, . . . , ~βn], [Q∗;~γ1, ~γ2, . . . , ~γn] dos sistemas de coordenadas, sea Q =(x1, x2, . . . , xn), Q∗ = (y1, y2, . . . , yn), tomemos

fi(t) = xi + t(yi − xi) 0 ≤ t ≤ 1 , i = 1, 2, . . . , n .

Entonces el punto Q es deformado continuamente en el punto Q∗ a lo largo del seg-mento QQ∗.

Tenemos que demostrar que el sistema de vectores ~β1, ~β2, . . . , ~βn puede ser defor-mado continuamente en el sistema de vectores ~γ1, ~γ2, . . . , ~γn de modo que la inde-pendencia lineal se preserve en todo momento del proceso de deformacion, esto es, si~βi = {vi1, vi2, . . . , vin}, ~γi = {ui1, ui2, . . . , uin}, i = 1, 2, . . . , n tenemos que encontrarn2 funciones continuas fik(t) definidas en c ≤ t ≤ d tales que fik(c) = vik, fik(d) = uik

y tales que para todo t con c ≤ t ≤ d se tiene que det(fik(t)) 6= 0. Esto no puedesuceder si D(~β1, ~β2, . . . , ~βn) = det(vik) y D(~γ1, ~γ2, . . . , ~γn) = det(uik) tienen signosopuestos, puesto que det(fik(t)) es una funcion continua de t en c ≤ t ≤ d luego paraal menos un t0 ∈ [c, d] deberıa tenerse que det(fik(t0)) = 0. Supondremos entoncesque det(vik) y det(uik) tienen el mismo signo. Podemos elegir un representativo dela clase con determinante positivo, por ejemplo, ~e1, ~e2, . . . , ~en y un representativode la clase con determinante negativo, digamos ~e1, ~e2, . . . , -~en. Demostraremos quecada sistema en una clase puede ser deformado continuamente en su correspondienterepresentativo. Si ~β1, ~β2, . . . , ~βn; ~γ1, ~γ2, . . . , ~γn estan en la clase con determinantepositivo y ambos pueden ser deformados continuamente en ~e1, ~e2, . . . , ~en entonces, demanera analoga, podemos deformar ~e1, ~e2, . . . , ~en en ~γ1, ~γ2, . . . , ~γn y ası ~β1, ~β2, . . . ,~βn puede ser deformado en ~γ1, ~γ2, . . . , ~γn vıa ~e1, ~e2, . . . , ~en. Analogamente para elcaso con determinante negativo.

Page 106: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

102 CAPITULO 6. SISTEMAS DE COORDENADAS

Teorema 6.4 Sea ~β1, ~β2, . . . , ~βn un sistema de vectores tales que D(~β1, ~β2, . . . , ~βn) >

0. Entonces ~β1, ~β2, . . . , ~βn puede ser deformado continuamente en ~e1, ~e2, . . . , ~en

sin que el determinante del sistema de vectores se anule en ninguna etapa del proce-so. Analogamente, ~β1, ~β2, . . . , ~βn puede ser deformado en ~e1, ~e2, . . . , −~en solo siD(~β1, ~β2, . . . , ~βn) < 0.

Demostracion: Para n = 1, sea ~β1 = {v}, det(v) = v. Si v > 0, sea f(t) = v+t(1−v),0 ≤ t ≤ 1; si v < 0 sea f(t) = v + t(−1 − v), 0 ≤ t ≤ 1. Para n = 1 el teorema esverdadero, supongamos que es verdadero para n− 1.

Lema 6.5 ~β1, ~β2, . . . , ~βn puede ser deformado continuamente en ~β1, ~β2, . . . , ~βi, ~δ,

~βi+1, . . . , ~βn donde ~δ = ~βi+λ~βk, i 6= k, λ real, de modo que el determinante permanece

constante durante el proceso de deformacion.

Demostracion: Sean fis(t) las n2 funciones determinadas en 0 ≤ t ≤ λ por:

~fi(t) = ~βi + t~βk, 0 ≤ t ≤ λ; fj(t) = ~βj , j 6= i, 0 ≤ t ≤ λ

esto es,

fis(t) = vis + tvks 0 ≤ t ≤ λ, s = 1, 2, . . . , n

fjs(t) = vjs 0 ≤ t ≤ λ, s = 1, 2, . . . , n, j 6= i

Dado que D(~β1, ~β2, . . . , ~βn) = D(~β1, ~β2, . . . , ~βi + t~βk, . . . , ~βn) el determinante per-manece constante.

Lema 6.6 El sistema de vectores ~β1, ~β2, . . . , ~βn puede ser continuamente deformado

sin cambio alguno en el valor del determinante, en cualquier sistema que provenga de

el por un cambio simultaneo del signo de dos vectores, digamos, sustituyendo ~βi, ~βk

por −~βi, −~βk.

Demostracion: Consideremos la operacion del primer lema como una del siguientetipo:

Si j 6= i, j 6= k, ~βj permanece igual.

~βi se reemplaza por ~βi + λ~βk, se anota ~βi 7→ ~βi + λ~βk.

~βk se reemplaza por ~βk, se anota ~βk 7→ ~βk.

Apliquemos en forma sucesiva esta nueva forma del primer lema:

~βi 7→ ~βi + 2~βk

~βk 7→ ~βk

, luego~βi + 2~βk 7→ ~βi + 2~βk

~βk 7→ −~βi − ~βk

, luego~βi + 2~βk 7→ −~βi

−~βi − ~βk 7→ −~βi − ~βk

Page 107: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.4. DEFORMACION CONTINUA DE SISTEMAS DE COORDENADAS 103

y por ultimo−~βi 7→ −~βi

−~βi − ~βk 7→ −~βk

.

Al menos un vector ~βi debe tener vik 6= 0, si no es ası, det(vik) = 0. Si vnn = 0, hay ~βi

con vin 6= 0 y por el primer lema podemos reemplazar ~βn por ~βi + ~βn, luego podemossuponer que vnn 6= 0. Luego ~β1 7→ ~β1− v1n

vnn

~βn, la ultima componente de este vector escero. En general, hacemos ~βi 7→ ~βi − vin

vnn

~βn, 1 ≤ i ≤ n− 1 entonces

det(vik) =

∣∣∣∣∣∣∣∣∣∣∣

b11 b12 · · · b1(n−1) 0b21 b22 · · · b2(n−1) 0...

.... . .

......

b(n−1)1 b(n−1)2 · · · b(n−1)(n−1) 0vn1 vn2 · · · vn(n−1) vnn

∣∣∣∣∣∣∣∣∣∣∣

Apliquemos el primer lema al sistema de columnas de este ultimo determinante:

(i-esima columna) 7→ (i-esima columna)− vni

vnn(n-esima columna)

(esto implica una deformacion continua del sistema de filas de la nueva matriz lascuales son en realidad los nuevos vectores ~βi, esto es porque al deformar continua-mente el sistema de columnas de la nueva matriz de todos modos hubo que encontrarn2 funciones gik(t) que produjesen la deformacion. Para interpretarlas como deforma-ciones continuas de los nuevos ~βi basta considerarlas en el orden adecuado).

El nuevo determinante adopta la forma∣∣∣∣∣∣∣∣∣∣∣

b11 b12 · · · b1(n−1) 0b21 b22 · · · b2(n−2) 0...

.... . .

......

b(n−1)1 b(n−1)2 · · · b(n−1)(n−1) 00 0 · · · 0 vnn

∣∣∣∣∣∣∣∣∣∣∣

= vnn

∣∣∣∣∣∣∣∣∣

b11 b12 · · · b1(n−1)

b21 b22 · · · b2(n−1)

......

. . ....

b(n−1)1 b(n−1)2 · · · b(n−1)(n−1)

∣∣∣∣∣∣∣∣∣

luego el determinande de (n − 1) × (n − 1), det(bik) es distinto de cero puesto quevnn 6= 0. Sea ~e′1, ~e′2, . . . , ~e′n−1 los vectores de la base estandar de Rn−1. Por la hipotesisde induccion, el sistema de filas de (bik) puede ser deformado continuamente en ~e′1, ~e′2,. . . , ~e′n−1 o bien en ~e′1, ~e′2, . . . , −~e′n−1 sin que el determinante cambie de signo; det(bk)queda en la forma ∣∣∣∣∣∣∣∣∣

1 0 · · · 00 1 · · · 0...

.... . .

...0 0 · · · ±1

∣∣∣∣∣∣∣∣∣y por lo tanto el determinante original queda en la forma

∣∣∣∣∣∣∣∣∣∣∣

1 0 · · · 0 00 1 · · · 0 0...

.... . .

......

0 0 · · · ±1 00 0 · · · 0 vnn

∣∣∣∣∣∣∣∣∣∣∣

Page 108: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

104 CAPITULO 6. SISTEMAS DE COORDENADAS

Finalmente, si vnn > 0, transformemos vnn continuamente a 1, si vnn < 0 trans-formemos vnn continuamente a −1. Si el elemento (n− 1)(n− 1) de la matriz es +1,el teorema esta demostrado, si es −1, aplicamos el segundo lema y el determinantequeda en la forma ∣∣∣∣∣∣∣∣∣∣∣

1 0 · · · 0 00 1 · · · 0 0...

.... . .

......

0 0 · · · 1 00 0 · · · 0 ±1

∣∣∣∣∣∣∣∣∣∣∣Este determinante vale 1 si el elemento nn vale 1 y vale −1 si el elemento nn vale −1y esto depende de si det(vik) > 0 o bien det(vik) < 0, el teorema queda demostrado.

6.5. Construccion de sistemas ortonormales

Sea L un subespacio de V n, dim L = p, ¿tiene L una base ortonormal?

Sea ~α1, ~α2, . . . , ~αp una base de L. Si p = 1, ~β1 = ~α1‖~α1‖ constituye un tal sistema.

Supongamos que todos los subespacios de dimension p−1 tienen una base ortonormal,sea L′ el subespacio generado por ~α1, ~α2, . . . , ~αp−1. Por hipotesis, L′ tiene una baseortonormal ~β1, ~β2, . . . , ~βp−1. El sistema ~β1, ~β2, . . . , ~βp−1, ~αp es l.i. luego un vector ~βp

con ‖~βp‖ = 1 y ortogonal a ~β1, ~β2, . . . , ~βp−1 debe ser de la forma

~βp =n−1∑

i=1

λi~βi + λp~αp .

Haciendo producto punto con ~βi, 1 ≤ i ≤ p− 1, se obtiene

0 = λi + λp(~αp · ~βi) ⇒ λi = −λp(~αp · ~βi) 1 ≤ i ≤ p− 1

luego ~βp = λp

(~αp −

p−1∑

i=1

(~αp · ~βi)~βi

). Como ‖~βp‖ = 1 y ~β1, ~β2, . . . , ~βp−1, ~αp es l.i.

podemos concluir que

∥∥∥∥∥~αp −p−1∑

i=1

(~αp · ~βi)~βi

∥∥∥∥∥ 6= 0 y

λp = ± 1∥∥∥∥∥~αp −p−1∑

i=1

(~αp · ~βi)~βi

∥∥∥∥∥

luego ~β1, ~β2, . . . , ~βp con

~βp = ±~αp −

p−1∑

i=1

(~αp · ~βi)~βi

∥∥∥∥∥~αp −p−1∑

i=1

(~αp · ~βi)~βi

∥∥∥∥∥

Page 109: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.6. DISTANCIA Y VARIEDADES LINEALES 105

es una base ortonormal de L.

Esta formula proporciona un metodo recursivo para determinar los ~βi, basta tomar~β1 = ~α1

‖~α1‖ entonces

~β2 =~α2 − (~α2 · ~β1)~β1

‖~α2 − (~α2 · ~β1)~β1‖,

luego tenemos ~β1 y ~β2 y usamos la formula para determinar ~β3, etc.

6.6. Distancia y Variedades lineales

Sea [Q; ~β1, ~β2, . . . , ~βn] un sistema de coordenadas cartesiandas en Rn. Si ~α =n∑

i=1

ai~βi

entonces ~α · ~~βi = ai, 1 ≤ i ≤ n luego

‖~α‖2 = ~α · ~α =n∑

i=1

a2i =

n∑

i=1

(~α · ~βi)2

Problema: Sea M una variedad lineal, P /∈ M , M 6= Rn, M contiene mas de un pun-to. Sea dim M = p, 0 < p < n, sea L el subespacio generador. Queremos determinarla perperdicular bajada de P a M .

Sea ~β1, ~β2, . . . , ~βp una base ortonormal de L, la extendemos a una base ortonormal deV n, llamaremos L′ al subespacio generado por ~βp+1, ~βp+1, . . . , ~βn. Es claro que todovector de L′ es ortogonal a todo vector de L y si ~α ∈ L ∩ L′ entonces

~α =p∑

i=1

λi~βi =

n∑

i=p+1

λi~βi

luego λi = 0, i = 1, 2, . . . , n, y ~α = 0.

Sea ~α un vector cualquiera que es ortogonal a todos los vectores de L. Entonces

~α =n∑

i=1

ai~βi y a1 = a2 = · · · = ap = 0 luego ~α ∈ L′. Se concluye que el conjun-

to de todos los vectores ortogonales a L es el subespacio L′.

Sea Q = (y1, y2, . . . , yn) tal que Q /∈ M . ¿Existe un punto P ∈ M tal que−−→PQ es

ortogonal a todos los vectores de L?

Sea P0 ∈ M arbitrario,−−→P0Q =

n∑

i=1

λi~βi

y llamemos ~β =p∑

i=1

λi~βi, al aplicar ~β en P0, P0 se transforma en P , esto es,

−−→P0P = ~β y

como ~β ∈ L entonces P ∈ M . Pero−−→P0Q =

−−→P0P +

−−→PQ luego

−−→PQ =

n∑

i=p+1

λi~βi,−−→PQ ∈ L′,

Page 110: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

106 CAPITULO 6. SISTEMAS DE COORDENADAS

luego P es uno de los puntos buscados. Queremos demostrar que P es unico. Sea P ′

otro.−−→P ′Q =

n∑

i=1

µi~βi y

−−→P ′Q · ~βi = 0, i = 1, 2, . . . , p luego µi = 0, i = 1, 2, . . . , p

−−→P ′Q =

−−→P ′P +

−−→PQ

−−→P ′P =

−−→P ′Q−−−→PQ =

n∑

i=p+1

(µi − λi)~βi

luego−−→P ′P ∈ L′ y como P ′, P ∈ M entonces

−−→P ′P ∈ L. Como L∩L′ = {0} se sigue que

P = P ′.

Llamaremos al segmento PQ (o al vector−−→PQ) la perpendicular de Q a M , P se llama

el pie de la perpendicular.

PQ =

√√√√n∑

i=p+1

λ2i =

√√√√n∑

i=p+1

[(−−→P0Q · ~βi)]2

donde P0 es un punto arbitrario de M . Pero

P0Q =

√√√√n∑

i=1

[(−−→P0Q · ~βi)]2

luego P0Q ≥ PQ.

Hay igualdad solo sip∑

i=1

[(−−→P0Q · ~βi)]2 = 0, esto es solo si

−−→P0Q · ~βi = 0, i = 1, 2, . . . , p, y

esto se da solo si P0 = P .

PQ es la distancia mas corta de un punto Q a la variedad M . A la inversa, si P0 ∈ My P0Q es la distancia mas corta de Q a M entonces P0Q = PQ es la perpendicular deQ a M .

Problema: Supongamos que M esta dada por el sistema lineal

n∑

k=1

aikxk = bi i = 1, 2, . . . , r

Queremos encontrar la perpendicular de Q a M . Suponemos que la matriz del sistematiene rango r, o sea que las r ecuaciones son independientes.

El subespacio L generador de M tiene dimension p = n− r y esta representado por elcorrespondiente sistema homogeneo

n∑

k=1

aikxk = 0 i = 1, 2, . . . , r

y esta compuesto por todas las soluciones vectoriales de tal sistema. Si ~x = {x1, x2, . . . , xn}es una solucion vectorial y ~αi = {ai1, ai2, . . . , ain}, i = 1, 2, . . . , r es un vector fila dela matriz del sistema se tiene que ~αi · ~x = 0, i = 1, 2, . . . , r luego ellos son todos ortog-onales a L. Sea L′ el subespacio de todos los vectores ortogonales a L, sabemos que L′

Page 111: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.6. DISTANCIA Y VARIEDADES LINEALES 107

tiene dimension n−p = r; como ~α1, ~α2, . . . , ~αr son l.i. y estan en L′, ellos constituyenuna base para L′. Por el metodo de ortonormalizacion, podemos obtener una baseortonormal para L′ a partir de ~α1, ~α2, . . . , ~αr. Recordando que n−p = r, refiramonosa esta base ortonormal de L′ por ~βp+1, ~βp+2, . . . , ~βn. Sea ~βp+1 = {vi1, vi2, . . . , vin},i = 1, 2, . . . , r y elijamos P0 ∈ M arbitrario pero fijo. Consideremos el sistema linealde ecuaciones

n∑

k=1

vikxk =n∑

k=1

vikzk i = 1, 2, . . . , r P0 = (z1, z2, . . . , z) (6.8)

Si P = (x1, x2, . . . , xn) es una solucion de este sistema, entonces−−→P0P · ~βp+i = 0,

i = 1, 2, . . . , r luego−−→P0P ∈ L y por lo tanto P ∈ M . A la inversa, si P ∈ M ,

−−→P0P ∈ L

y es solucion vectorial del sistema homogeneo, luego es ortogonal a todos los vectoresde L′ y por lo tanto es solucion de (6.8). Se concluye que (6.8) representa a M .

Sea Q = (y1, y2, . . . , yn) un punto que no esta en M . Entonces

−−→P0Q · ~βp+i =

n∑

k=1

vik(yk − zk) i = 1, 2, . . . , r

Si P es el pie de la perpendicular de Q a M sabemos que

PQ =

√√√√n∑

i=p+1

[−−→P0Q · ~δi]2

donde P0 ∈ M y es arbitrario y ~δp+1, ~δp+2, . . . , ~δn es una base ortonormal de L′. Como~βp+i, i = 1, 2, . . . , r es una base ortonormal de L′ tenemos que

PQ2

=r∑

i=1

[n∑

k=1

vik(yk − zk)

]2

El caso mas comun es aquel en que M es un hiperplano, esto es, M tiene dimensionn− 1. En tal caso M esta dado por una sola ecuacion

n∑

i=1

aixi = b

Entonces L′ tiene dimension 1 y es generado por ~α = {a1, a2, . . . , an}. Sea

~α∗ =~α

‖~α‖ = {a∗1, a∗2, . . . , a∗n} a∗i =ai√√√√n∑

i=1

a2i

Sea P0 = (z1, z2, . . . , zn) un punto arbitrario de M entonces

n∑

i=1

a∗i zi =n∑

i=1

aizi√√√√n∑

i=1

a2i

=b√√√√n∑

i=1

a2i

Page 112: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

108 CAPITULO 6. SISTEMAS DE COORDENADAS

La nueva ecuacion de M esn∑

i=1

aixi√√√√n∑

i=1

a2i

=b√√√√n∑

i=1

a2i

y se llama la forma normal de hiperplano M .

La perpendicular PQ esta dada por

PQ2

=

{n∑

k=1

a∗k(yk − zk)

}2

PQ2

=

n∑

k=1

ak√√√√n∑

i=1

a2i

(yk − zk)

2

=

n∑

k=1

akyk√√√√n∑

i=1

a2i

− b√√√√

n∑

i=1

a2i

2

Esto nos da una manera mecanica de calcular la distancia de un punto a un hiperplano.Escriba el hiperplano en forma normal y acumule todos los terminos en el miembroizquierdo, reemplace las coordenadas de P = (c1, c2, . . . , cn) por las coordenadas deQ = (y1, y2, . . . , yn). El valor absoluto de lo que resulta es la distancia pedida.

Problema: Sean M1, M2 variedades lineales, queremos encontrar la perpendicularcomun (cuando esta exista). Buscamos P ∈ L1, Q ∈ L2 tales que el vector

−−→PQ es

ortogonal a M1 y M2.

Sea L1 el subespacio generador de M1, L2 el de M2. Sea S = L1 + L2 de dimensions > 0 (M1 y M2 no consisten ambos de un solo punto). Sea ~β1, ~β2, . . . , ~βs una baseortonormal de S. Si s = n, el unico vector ortogonal a todos los vectores de S es ~0. Unvector que es ortogonal a todos los vectores de L1 y L2 debe ser ortogonal a todos losvectores de S, luego la perpendicular comun es ~0, luego P = Q ∈ M1∩M2, se concluyeque M1 ∩M2 6= ∅.

Pero M1 ∩ M2 6= ∅. En efecto, sea P0 ∈ M1, Q0 ∈ M2 entonces−−−→P0Q0 ∈ S porque

s = n entonces hay ~α1 ∈ L1, ~α2 ∈ L2 tales que−−−→P0Q0 = ~α1 + ~α2. Supongamos

que ~α1 lleva P0 en P y que −~α2 lleva a Q0 en Q entonces−−→P0P = ~α1,

−−→QQ0 = ~α2,−−−→

P0Q0 =−−→P0P +

−−→PQ +

−−→QQ0, esto es,

~α1 + ~α2 =−−→PQ + ~α1 + ~α2

luego P = Q.

Por construccion, P ∈ M1, Q ∈ M2 luego M1 ∩M2 6= ∅. Se concluye que si s = n laperpendicular comun es ~0.

Supongamos entonces que s < n. Sea ~β1, ~β2, . . . , ~βs base ortonormal de S, la extende-mos a una base ortonormal de V n, sea L′ subespacio generado por ~βs+1, ~βs+2, . . . , ~βn,

Page 113: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

6.6. DISTANCIA Y VARIEDADES LINEALES 109

L′ es el subespacio de todos los vectores ortogonales a S, S ∩ L′ = {~0}. Si P0 ∈ M1,

Q0 ∈ M2 y−−−→P0Q0 =

n∑

i=1

λi~βi, llamemos ~γ =

s∑

i=1

λi~βi. ~γ ∈ S luego hay ~α1 ∈ L1, ~α2 ∈ L2

tales que ~γ = ~α1 + ~α2. Sea P ∈ M1 tal que−−→P0P = ~α1, Q ∈ M tal que

−−→Q0Q = −~α2.−−−→

P0Q0 =−−→P0P +

−−→PQ +

−−→QQ0 y tambien

−−−→P0Q0 = ~γ +

n∑

i=p+1

λi~βi = ~α1 + ~α2 +

n∑

i=p+1

λi~βi =

−−→P0P +

−−→QQ0 +

n∑

i=p+1

λi~βi

luego−−→PQ =

n∑

i=p+1

λi~βi

luego−−→PQ ∈ L′ y es ortogonal a todos los vectores de S y por lo tanto a todos los

vectores de L1 y L2.

Sean P ′ ∈ M1, Q′ ∈ M2 tales que−−−→P ′Q′ es una perpendicular comun. Entonces

−−−→P ′Q′ ∈

L′ luego−−→PQ =

n∑

i=p+1

µi~βi y

−−→PQ−−−−→P ′Q′ =

n∑

i=p+1

(λi − µi)~βi

tambien esta en L′. Pero−−→PQ =

−−→PP ′+

−−−→P ′Q′+

−−→Q′Q luego

−−→PQ−−−−→P ′Q′ ∈ S luego debe ser

el vector ~0 puesto que L′ ∩ S = {~0} de donde−−→PQ =

−−−→P ′Q′. Todas las perpendiculares

comunes son paralelas y de igual longitud.

Tambien se deduce que−−→PP ′ +

−−→Q′Q = ~0 luego

−−→PP ′ =

−−→QQ′. Pero

−−→PP ′ ∈ L1,

−−→QQ′ ∈ L2

luego−−→PP ′ =

−−→QQ′ ∈ L1 ∩ L2.

A la inversa, sea ~γ ∈ L1 ∩ L2, sean P ′ ∈ M1, Q′ ∈ M2 tales que−−→PP ′ = ~γ,

−−→QQ′ = ~γ.

Como−−→PP ′ ∈ L1,

−−→QQ′ ∈ L2 y

−−→PP ′ =

−−→QQ′ = ~γ se tiene que

−−→PQ =

−−−→P ′Q′ luego

−−−→P ′Q′ es

una perpendicular comun.

Sean P y Q, P ∈ M1, Q ∈ M2 tales que−−→PQ es una perpendicular comun. Sea

D = L1∩L2, sea ~γ ∈ D. Si P ′ ∈ M1 es tal que−−→PP ′ = ~γ, Q′ ∈ M2 es tal que

−−→QQ′ ∈ L2

entonces−−−→P ′Q′ tambien es una perpendicular comun y todas se obtienen de esta manera.

Volvamos atras, si P0 ∈ M1, Q0 ∈ M2,−−−→P0Q0 =

n∑

i=1

λi~βi y P y Q fueron obtenidos de

modo que−−→PQ fuese una perpendicular comun entonces

−−→PQ =

n∑

i=p+1

λi~βi luego P0Q0 ≥

PQ y como todas las perpendiculares comunes tienen igual longitud, la longitud decualquiera de ellas es la distancia mas corta entre M1 y M2. Para que exista igualdadnecesariamente λi = 0, i = 1, 2, . . . , s, luego

−−−→P0Q0 ∈ L′ y es una perpendicular comun.

Se concluye que un segmento que conecta un punto P0 ∈ M1, con un punto Q0 ∈ M2

es la distancia mas corta entre M1 y M2 si y solo si−−−→P0Q0 es una perpendicular comun

entre M1 y M2.

Page 114: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

110 CAPITULO 6. SISTEMAS DE COORDENADAS

Page 115: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Capıtulo 7

Movimientos Rıgidos

En el espacio euclidiano Rn consideremos transformaciones f : Rn → Rn tales que sif(P ) = P ∗, f(Q) = Q∗ entonces P ∗Q∗ = PQ. Diremos que una tal transformacion esun movimiento rıgido.

Sean P ∗ = f(P ), Q∗ = f(Q), R∗ = f(R). Como−−→QR =

−−→QP +

−→PR

−−→QR · −−→QR =

−−→QP · −−→QP + 2

−−→QP · −→PR +

−→PR · −→PR .

Como−−→QP · −−→QP =

−−→PQ · −−→PQ,

−−→QR · −−→QR = ‖−−→QR‖2 = ‖−−→PQ‖2 − 2

−−→PQ · −→PR + ‖−→PR‖2

luego

−−→PQ · −→PR =

12(‖−−→PQ‖2 + ‖−→PR‖2 − ‖−−→QR‖2), de manera analoga

−−−→P ∗Q∗ · −−−→P ∗R∗ =

12(‖−−−→P ∗Q∗‖2 + ‖−−−→P ∗R∗‖2 − ‖−−−→Q∗R∗‖2)

y como f es un movimiento rıgido se tiene que

−−→PQ · −→PR =

−−−→P ∗Q∗ · −−−→P ∗R∗

El producto escalar es invariante frente a movimientos rıgidos.

Sea [O; ~β1, ~β2, . . . , ~βn] un sistema de coordenadas cartesianas en Rn. Sea−−→OPi = ~βi, i =

1, 2, . . . , n, sea f un movimiento rıgido, sean O∗ = f(O), P ∗i = f(Pi), i = 1, 2, . . . , n,−−−→O∗P ∗i = ~β∗i , i = 1, 2, . . . , n. Entonces

~β∗i · ~β∗k =−−−→O∗P ∗i ·

−−−→O∗P ∗k =

−−→OPi · −−→OPk = ~βi · ~βk = δik

Se concluye que [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n] es un sistema de coordenadas cartesianas en Rn.

Sea P ∈ Rn, sean x1, x2, . . . , xn sus coordenadas con respecto a [O; ~β1, ~β2, . . . , ~βn],sean x∗1, x∗2, . . . , x∗n las coordenadas de P ∗ en [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n]. Entonces

−−→OP =

n∑

i=1

xi~βi ,

−−−→O∗P ∗ =

n∑

i=1

x∗i ~β∗i

111

Page 116: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

112 CAPITULO 7. MOVIMIENTOS RIGIDOS

xi =−−→OP · ~βi =

−−→OP · −−→OPi x∗i =

−−−→O∗P ∗ · ~β∗i =

−−−→O∗P ∗ · −−−→O∗P ∗i

luego xi = x∗i .

Demostremos que un movimiento rıgido es 1-1 y sobre. Sea Q∗ ∈ Rn, sean y1, y2,. . . , yn sus coordenadas en [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n]. Si Q tiene coordenadas y1, y2, . . . , yn

en [O; ~β1, ~β2, . . . , ~βn] entonces f(Q) = Q∗. Si P tiene coordenadas x1, x2, . . . , xn en[O; ~β1, ~β2, . . . , ~βn] y f(P ) = Q∗ entonces xi = yi, i = 1, 2, . . . , n y P = Q.

Sean [O; ~β1, ~β2, . . . , ~βn], [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n] dos sistemas arbitrarios de coordenadascartesianas.

Sea f : Rn → Rn definida por: sea P un punto cuyas coordenadas cartesianas en elprimer sistema son x1, x2, . . . , xn, sea P ∗ el punto cuyas coordenadas en el segundosistema son x1, x2, . . . , xn, definimos f(P ) = P ∗.

Sea Q otro punto cuyas coordenadas cartesianas con respecto al primer sistema sony1, y2, . . . , yn. Entonces

PQ =

√√√√n∑

i=1

(yi − xi)2

Pero Q∗ = f(Q) tiene coordenadas y1, y2, . . . , yn en el segundo sistema y

P ∗Q∗ =

√√√√n∑

i=1

(yi − xi)2

entonces PQ = P ∗Q∗, f es un movimiento rıgido.

Teorema 7.1 Sea f un movimiento rıgido, M una variedad lineal de dimension p.Entonces f(M) es una variedad lineal de dimension p.

Demostracion: Sea [O; ~β1, ~β2, . . . , ~βn] un sistema de coordenadas cartesianas, en talsistema M se representa mediante un sistema lineal de ecuaciones cuya matriz tienerango n−p. Sea [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n] el sistema de coordenadas cartesianas obtenido de[O; ~β1, ~β2, . . . , ~βn] tomando O∗ = f(O) y si Pi es tal que

−−→OPi = ~βi entonces

−−−→O∗P ∗i = ~β∗i ,

i = 1, 2, . . . , n. Si P ∈ M y tiene coordenadas x1, x2, . . . , xn en el primer sistema,por lo visto previamente tiene coordenadas x∗1, x∗2, . . . , x∗n en el segundo sistema conx∗i = xi y por lo tanto P ∗ = (x∗1, x

∗2, . . . , x

∗n) satisface el mismo sistema de ecuaciones

con respecto a [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n].

Nota: Sean M1, M2 variedades lineales con espacios generadores L1, L2. Debemosrecordar que si M1∩M2 6= ∅ entonces M1∩M2 es la variedad lineal obtenida de aplicarL1 ∩ L2 en un punto P0 ∈ M1 ∩M2.

Teorema 7.2 Sea f un movimiento rıgido, M1, M2 variedades lineales. Sea D =M1 ∩M2 6= ∅. Entonces D∗ = M∗

1 ∩M∗2 .

Demostracion: Sea P ∈ D, entonces P ∗ ∈ M∗1 , P ∗ ∈ M∗

2 luego P ∗ ∈ M∗1 ∩ M∗

2

luego D∗ ⊂ M∗1 ∩ M∗

2 . Sea P ∗ ∈ M∗1 ∩ M∗

2 , hay un unico P tal que f(P ) = P ∗ yP ∈ M1 ∩M2 luego P ∗ ∈ D∗ y M∗

1 ∩M∗2 ⊂ D∗.

Page 117: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

113

Nota: Si D = ∅ entonces D∗ = ∅. En efecto, si P ∗ ∈ D∗ habrıa P tal que f(P ) = P ∗

y ademas P ∈ D, esto no puede ser.

Si M1 ⊂ M2, D = M1, D∗ = M∗1 luego M∗

1 ⊂ M∗2 .

Sea f un movimiento rıgido, sea ~α ∈ V n. Sea P ∈ Rn, hay Q ∈ Rn tal que ~α =−−→PQ,

definamos F : V n → V n por F (~α) =−−−→P ∗Q∗.

Queremos demostrar que F es independiente de la eleccion de P . Sea P1 arbitrario,sea Q1 tal que ~α =

−−−→P1Q1. Consideremos un sistema de coordenadas cartesianas

[O; ~β1, ~β2, . . . , ~βn], sea [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n] tal como antes. Los puntos P ∗, Q∗, P ∗1 ,Q∗1 tienen las mismas coordenadas en [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n] que P , Q, P1, Q1 tienen en[O; ~β1, ~β2, . . . , ~βn] luego los vectores

−−−→P ∗Q∗ y

−−−→P ∗1 Q∗1 tienen las mismas componentes en

el sistema [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n] que los vectores−−→PQ y

−−−→P1Q1 tienen en [O; ~β1, ~β2, . . . , ~βn].

Como−−→PQ =

−−−→P1Q1 entonces

−−−→P ∗Q∗ =

−−−→P ∗1 Q∗1 luego F esta bien definida.

Si F (~α1) = F (~α2), ~α1 y ~α2 tienen las mismas componentes en [O; ~β1, ~β2, . . . , ~βn] luego~α1 = ~α2. Es claro que F es sobre. Diremos que f induce la transformacion F en V n.

Problema: Sea [O; ~β1, ~β2, . . . , ~βn] un sistema de coordenadas fijo, sea P un punto decoordenadas x1, x2, . . . , xn con respecto a este sistema. Sea f un movimiento rıgido.Se piden las coordenadas de P ∗.

Sabemos que P ∗ tiene coordenadas x1, x2, . . . , xn en [O∗; ~β∗1 , ~β∗2 , . . . , ~β∗n]. Sean

−−→OO∗ =

n∑

i=1

ti~βi~β∗k =

n∑

i=1

aik~βi

Si P ∗ tiene coordenadas y1, y2, . . . , yn en [O; ~β1, ~β2, . . . , ~βn] entonces

yi = ti +n∑

k=1

aikxk i = 1, 2, . . . , n

y ademas (aik) es matriz ortogonal.

A la inversa, consideremos el sistema lineal

yi = ti +n∑

i=1

aikxk i = 1, 2, . . . , n (7.1)

donde x1, x2, . . . , xn representan las coordenadas de P en un cierto sistema de coorde-nadas cartesianas [O, ~β1, ~β2, . . . , ~βn]. Si interpretamos (7.1) como una transformacionf tal que f(P ) es el punto P ∗ cuyas coordenadas y1, y2, . . . , yn estan dadas por (7.1)entonces, si (aik) es ortogonal, f es un movimiento rıgido.

En efecto, sea Q otro punto de coordenadas x′1, x′2, . . . , x′n, sea Q∗ de coordenadas y′1,

Page 118: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

114 CAPITULO 7. MOVIMIENTOS RIGIDOS

y′2, . . . , y′n donde Q∗ = f(Q). Entonces

y′i − yi =n∑

k=1

aik(x′k − xk) i = 1, 2, . . . , n

(y′i − yi)2 =

[n∑

k=1

aik(x′k − xk)

]2

=n∑

k=1

n∑

j=1

aikaij(x′k − xk)(x′j − xj) i = 1, 2, . . . , n

Sumemos las n ecuaciones:

n∑

i=1

(y′i − yi)2 =n∑

i=1

n∑

k=1

n∑

j=1

aikaij(x′k − xk)(x′j − xj)

=n∑

k=1

n∑

j=1

(n∑

i=1

aikaij

)(x′k − xk)(x′j − xj)

=n∑

k=1

n∑

j=1

δkj(x′k − xk)(x′j − xj) =n∑

k=1

(x′k − xk)2

luego PQ2

= P ∗Q∗2.

Si det(aik) = 1, (7.1) se dice un movimiento rıgido propio, si det(aik) = −1 se diceimpropio.

Consideremos la transformacion inducida por (7.1) en V n. Queremos calcular las com-ponentes de f(~α) a partir de las componentes de ~α. Pero las componentes de

−−→PQ son

x′k − xk, k = 1, 2, . . . , n, y las de−−−→P ∗Q∗ son y′i − yi luego ya tenıamos que

y′i − yi =n∑

k=1

aik(x′k − xk)

Si llamamos ui a las componentes de ~α y u∗i a las componentes de ~α∗ = F (~α) se tiene

u∗i =n∑

k=1

aikui i = 1, 2, . . . , n

Sea Aik el adjunto de aik en det(aik), volviendo a (7.1) se tiene, por la regla de Cramerque

xi =1

det(aik)

n∑

k=1

Aki(yk − tk) i = 1, 2, . . . , n (7.2)

(7.2) tambien define una transformacion. Si P ∗ es la imagen de P segun (7.1) entoncesP es la imagen de P ∗ segun (7.2), luego la transformacion definida por (7.2) es lainversa de la transformacion definida por (7.1). Ademas como (aik) es ortogonal se

tiene que ajh =Ajh

det(aik).

Page 119: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

7.1. MOVIMIENTOS RIGIDOS EN R2 115

Nota: Vimos que un movimiento rıgido deja invariante al producto escalar, peropara demostrarlo representamos ambos vectores con el mismo punto inicial. Queremoshacer ver que esta restriccion es superflua. Sean ~α, ~β arbitrarios, ~α∗ y ~β∗ fuerondefinidos independientemente de su punto inicial. Tomemos ~α =

−−→PQ, β =

−→PR entonces

~α∗ =−−−→P ∗Q∗, ~β∗ =

−−−→P ∗R∗ y ~α · ~β = ~α∗ · ~β∗.

Nota: Consideremos el paralelotopo n-dimensional generado por los vectores l.i. ~β1,~β2, . . . , ~βn, sean ~β∗1 , ~β∗2 , . . . , ~β∗n sus imagenes segun un movimiento rıgido. Sea Pel punto a partir del cual se genera el paralelotopo, sea P ∗ su imagen, aplicando

los vectoresn∑

i=1

λi~β∗i , 0 ≤ λi ≤ 1 a partir de P ∗ se obtiene un nuevo paralelotopo,

llamemoslo la imagen del paralelotopo original segun el movimiento rıgido. Si ~βi tienecomponentes ui1, ui2, . . . , uin en el sistema cartesiano [O;~γ1, ~γ2, . . . , ~γn], ~β∗i tiene lasmismas componentes en [O∗;~γ∗1 , ~γ∗2 , . . . , ~γ∗n]. El volumen del paralelotopo original es| det(uik)|. El volumen del paralelotopo cuyas aristas son ~β∗1 , ~β∗2 , . . . , ~β∗n puede serevaluado de la misma manera en terminos de los componentes de los vectores ~β∗i en elsistema [O∗;~γ∗1 , ~γ∗2 , . . . , ~γ∗n]. Pero dichas componentes son iguales a las de los vectores~βi en el sistema [O;~γ1, ~γ2, . . . , ~γn], luego este segundo volumen es igual al original. Elvolumen de un paralelotopo es invariante frente a movimientos rıgidos.

¿Que sucede con det(uik) si las uik son reemplazadas por las componentes de los ~β∗ien el mismo sistema de coordenadas [O;~γ1, ~γ2, . . . , ~γn]?

Supongamos que tales componentes son u∗i1, u∗i2, . . . , u

∗in. Sabemos que

u∗ik =n∑

ν=1

akνuiν i, k = 1, 2, . . . , n

det(u∗ik) = det

(n∑

ν=1

uiνakν

)= det(uik) det(aik)

Como det(aik) = ±1,det(u∗ik) = ± det(uik).

7.1. Movimientos rıgidos en R2

En un sistema de coordenadas cartesianas un movimiento rıgido f esta dado por

y1 = t1 + a11x1 + a12x2

y2 = t2 + a21x1 + a22x2

donde (aik) es ortogonal, y para las componentes de los vectores se tiene

u∗1 = a11u1 + a12u2

u∗2 = a21u1 + a22u2

Un vector ~α se dice invariante bajo f si f(~α) = ~α. Es claro que ~0 es invariante bajof . Nos preguntamos si existe algun otro vector invariante. Si es que lo hay debe darseque

u1 = a11u1 + a12u2

u2 = a21u1 + a22u2⇒ (a11 − 1)u1 + a12u2 = 0

a21u1 + (a22 − 1)u2 = 0 (7.3)

Page 120: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

116 CAPITULO 7. MOVIMIENTOS RIGIDOS

luego para que algun vector distinto de cero sea invariante, la matriz(

(a11 − 1) a12

a21 (a22 − 1)

)

debe tener rango R menor que 2.

Caso 1: R = 0. Todos los vectores de V 2 son soluciones de (7.3), a11 = a22 = 1,

a12 = a21 = 0, luego la matriz (aik) es(

1 00 1

), det(aik) = 1, y las ecuaciones que

definen a f son de la forma

y1 = t1 + x1

y2 = t2 + x2

Si O = (0, 0), O∗ = (t1, t2), el movimiento rıgido es una traslacion en−−→OO∗; si

t1 = t2 = 0, f es la identidad.

Caso 2: R = 1.

0 =∣∣∣∣

a11 − 1 a12

a21 a22 − 1

∣∣∣∣ = det(aik) + 1− a11 − a22

y algun elemento de(

a11 − 1 a12

a21 a22 − 1

)es distinto de cero.

Si det(aik) = 1 entonces a11 + a22 = 2, pero como

a211 + a2

12 = 1a221 + a2

22 = 1

ningun aik puede ser tal que |aik| > 1 y a11+a22 = 2 se cumple solo si a11 = a22 = 1. Ental caso a12 = a21 = 0 y estamos en el caso 1. Entonces es necesario que det(aik) = −1.Pero si det(aik) = −1, como a11 = A11

det(aik) y A11 = a22 se tiene a11 = −a22 y entoncesdet(aik) + 1− a11 − a22 = 0 y (aik) tiene rango 1. Luego el caso 2 puede suceder si ysolo si det(aik) = −1.

En tal caso tenemos un subespacio invariante de dimension 1. Sea ~β1 un vector unitarioque es base de este subespacio y extendemos a una base ortonormal ~β1, ~β2 de R2. SeaQ arbitrario, escribamos las ecuaciones de f en [Q; ~β1, ~β2]. Las nuevas ecuaciones sonde la forma

y1 = t1 + c11x1 + c12x2

y2 = t2 + c21x1 + c22x2

u∗1 = c11u1 + c12u2

u∗2 = c21u1 + c22u2

Pero ~β1 es vector invariante y en la base elegida u1 = 1, u2 = 0 luego

u1 = c11u1 + c12u2

u2 = c21u1 + c22u2⇒ c11 = 1

c21 = 0

Ademas

c22 =A22

det(cik)=

c11

−1luego c22 = −c11 = −1

c12 =A12

det(cik)=−c21

−1luego c12 = c21 = 0

Page 121: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

7.1. MOVIMIENTOS RIGIDOS EN R2 117

De lo dicho se desprende que las ecuaciones de f en el sistema [Q; ~β1, ~β2] deben ser dela forma

y1 = t1 + x1

y2 = t2 − x2(7.4)

Sea Q1 tal que su coordenada x1 en [Q; ~β1, ~β2] es arbitraria pero x2 = 12 t2. Por (7.4),

Q∗1 tiene y2 = 12 t2 luego la segunda componente de

−−−→Q1Q

∗1 en tal sistema es 0. Como las

componentes de un vector son independientes del origen y dependen solo de la base,el vector

−−−→Q1Q

∗1 tiene segunda componente igual a cero en el sistema [Q1; ~β1, ~β2]. Pero

en este sistema Q1 tiene coordenadas 0, 0 y por lo tanto la segunda coordenada de Q∗1

en este sistema debe ser 0. Si consideramos (7.4) con respecto al sistema [Q1; ~β1, ~β2],si x1 = x2 = 0 necesariamente y2 = 0 luego t2 = 0. Se concluye que en el sistema[Q1; ~β1, ~β2] las ecuaciones de f deben ser de la forma

y1 = t1 + x1

y2 = −x2

La ecuacion y1 = t1+x1 nos dice que cada punto del plano es trasladado en la direcciondel eje x1 en |t1| hacia la derecha o izquierda segun t1 > 0 o t1 < 0 y despues se realizauna reflexion en el eje x1.

Caso 3: R = 2. El unico vector invariante es ~0. Si det(aik) = −1 estamos en el caso2. Luego det(aik) = 1. Como a11 = A11

det(aik) , si a11 = 1 entonces a22 = A11 = 1,a12 = a21 = 0 y estamos en el caso 1. Luego a11 6= 1.

A la inversa, si det(aik) = 1 y a11 6= 1 tenemos que estar en el caso 3 porque en el caso1 se tiene a11 = 1 y en el caso 2 se tiene det(aik) = −1.

Supongamos que f tiene un punto fijo (x1, x2) entonces

x1 = t1 + a11x1 + a12x2

x2 = t2 + a21x1 + a22x2

(a11 − 1)x1 + a12x2 = −t1

a21x1 + (a22 − 1)x2 = −t2

Como el rango de la matriz del sistema es 2, el sistema tiene siempre una unica solu-cion (x1, x2), sea Q(x1, x2) el punto fijo, sea [Q; ~β1, ~β2] un sistema de coordenadascartesianas, la forma de f en este sistema es

y1 = t1 + a11x1 + a12x2

y2 = t2 + a21x1 + a22x2

Para x1 = x2 = 0 se tiene y1 = y2 = 0 luego t1 = t2 = 0. Como a211 + a2

21 = 1 sea ϕ talque a11 = cos ϕ y pidamos 0 < ϕ < 2π (ϕ = 0 no puede darse porque entonces R = 0)

a22 =A22

det(aik)= a11 = cos ϕ a12 =

A12

det(aik)= −a21 = − senϕ

luego

y1 = x1 cos ϕ− x2 sen ϕ

y2 = x1 sen ϕ + x2 cos ϕ

Page 122: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

118 CAPITULO 7. MOVIMIENTOS RIGIDOS

en el sistema [Q; ~β1, ~β2]. Entonces ~β1 va al vector ~β∗1 de componentes cos ϕ, sen ϕ y ~β2

va al vector ~β∗2 de componentes − sen ϕ, cos ϕ luego [Q; ~β1, ~β2] va a [Q; ~β∗1 , ~β∗2 ] despuesde una rotacion en el sentido trigonometrico positivo en torno a Q y angulo ϕ. Si P esarbitrario, P ∗ tiene las mismas coordenadas en [Q; ~β∗1 , ~β∗2 ] que P tiene en [Q; ~β1, ~β2].Podemos concluir que P ∗ se obtiene de P por una rotacion en torno a Q y de angulo ϕ.

Nota: det(aik) debe tener el mismo valor en todos los sistemas de coordenadas ante-riores, porque su valor esta determinado por la dimension del subespacio de vectoresinvariantes, dimension que es independiente de la eleccion del sistema de coordenadas.

7.2. Movimientos rıgidos en R3

En un sistema cartesiano cualquiera, las ecuaciones de f son

yi = ti +3∑

k=1

aikxk i = 1, 2, 3 ,

(aik) matriz ortogonal, det(aik) = ±1.

Consideremos primero el caso det(aik) = 1. Si el vector de componentes u1, u2, u3 esinvariante entonces

ui =3∑

k=1

aikui

luego u1, u2, u3 deben ser soluciones del sistema

(a11 − 1)u1 + a12u2 + a13u3 = 0a21u2 + (a22 − 1)u2 + a23u3 = 0a31u1 + a32u2 + (a33 − 1)u3 = 0

(7.5)

∣∣∣∣∣∣

a11 − 1 a12 a13

a21 a22 − 1 a23

a31 a32 a33 − 1

∣∣∣∣∣∣= det(aik)−A11 −A12 −A13 + a11 + a22 + a33 − 1

Como det(aik) = 1, aik = Aik luego el determinante vale cero. El rango de la matrizde (7.5) es a lo mas dos luego la dimension del subespacio de vectores invariantes esal menos uno.

Queremos demostrar que si det(aik) = 1 la dimension de tal subespacio puede ser 1o 3 pero nunca puede ser 2.

Supongamos que es 2, entonces el rango de la matriz de (7.5) es a lo mas 1 y todossus menores de 2× 2 son cero, en particular

∣∣∣∣a11 − 1 a12

a21 a22 − 1

∣∣∣∣ = A33 − a11 − a22 + 1 = 0∣∣∣∣

a11 − 1 a13

a31 a33 − 1

∣∣∣∣ = A22 − a11 − a33 + 1 = 0∣∣∣∣

a22 − 1 a23

a32 a33 − 1

∣∣∣∣ = A11 − a22 − a33 + 1 = 0

Page 123: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

7.2. MOVIMIENTOS RIGIDOS EN R3 119

Sumando las dos primeras ecuaciones y recordando que aik = Aik se obtiene −2a11 +2 = 0, a11 = 1. De manera analoga a22 = a33 = 1. De la ortogonalidad de (aik) seobtiene aik = 0, i 6= k, luego todos los coeficientes en (7.5) son cero, la dimension delespacio invariante es 3, todos los vectores en V 3 son invariantes.

Consideremos ahora el caso det(aik) = −1, ¿existe algun vector ~γ que va a −~γ?Entonces, si las componentes de ~γ son u1, u2, u3 debe tenerse que u∗i = −ui, i = 1, 2, 3y deben ser soluciones de

(a11 + 1)u1 + a12u2 + a13u3 = 0a21u2 + (a22 + 1)u2 + a23u3 = 0a31u1 + a32u2 + (a33 + 1)u3 = 0

y el determinante de la matriz del sistema vale

det(aik) + A11 + A22 + A33 + a11 + a22 + a33 + 1

y como det(aik) = −1 y aik = −Aik el determinante se anula.

El subespacio de soluciones tiene al menos dimension 1. Probaremos que tal dimensiones 1 o 3. Supongamos que tiene dimension 2, entonces todos los menores de 2 × 2 dela matriz del sistema deben ser cero, en particular los principales (a lo largo de ladiagonal principal). Se obtiene a11 = a22 = a33 = −1 y aik = 0 si i 6= k, todos loscoeficientes se anulan y todo V 3 es invariante.

Sea p la dimension del subespacio de vectores invariantes, q la dimension del subespa-cio de vectores ~γ que van a −~γ.

p y q estan definidos para todo movimiento rıgido f independientemente si det(aik) = 1o det(aik) = −1.

Los resultados coleccionados hasta ahora nos dicen que para cualquier f al menos unade las siguientes ecuaciones se cumple:

i.- p = 1

ii.- p = 3

iii.- q = 1

iv.- q = 3

Demostraremos que para cualquier movimiento rıgido en R3 se cumple exactamenteuna de las cuatro ecuaciones.

En efecto, ii) se cumple si y solo si todo V 3 es invariante, eso excluye a las otras.Analogamente si iv) se cumple. Luego dos de ellas pueden cumplirse simultaneamentesolo si ii) y iv) no se cumplen, esto es, i) y iii) son las unicas alternativas que podrıandarse juntas. Supongamos que es ası, hay ~γ 6= ~0 que es invariante y ~δ 6= ~0 que va a −~δ.Es claro que ~γ y ~δ son l.i. Consideremos el subespacio L de los vectores ortogonales a~γ y ~δ. La dimension de L es 1. Sea ~e ∈ L, ~e 6= ~0, sea ~e∗ su imagen. Entonces

~e · ~γ = ~e · ~δ = 0 ⇒ ~e∗ · ~γ∗ = ~e∗ · ~δ∗ = 0 ⇒ ~e∗ · ~γ = ~e∗ · (−~δ) = 0

Page 124: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

120 CAPITULO 7. MOVIMIENTOS RIGIDOS

luego ~e∗ ∈ L, ~e∗ = λ~e. Pero ‖~e∗‖ = ‖~e‖, entonces λ = ±1. Como ~e, ~γ, ~δ son l.i., si~e = ~e∗ no es posible que p = 1 y si ~e = −~e∗ no es posible que q = 1.

Tenemos ası los movimientos rıgidos en R3 divididos en cuatro clases mutuamente ex-cluyentes, i) y ii) corresponden a det(aik) = 1, iii) y iv) corresponden a det(aik) = −1.

i.- p = 1. Sea ~β3 invariante, ‖~β3‖ = 1, extendamos a una base ortonormal ~β1, ~β2, ~β3

de R3, sea [Q; ~β1, ~β2, ~β3] un sistema cartesiano, consideremos las ecuaciones de fen tal sistema, sean ellas

yi = ti +3∑

k=1

aikxk i = 1, 2, 3

u∗k =3∑

k=1

aikui k = 1, 2, 3

Como ~β3 es invariante, u∗1 = u∗2 = 0, u∗3 = 1 luego a13 = a23 = 0, a33 = 1 y de laortogonalidad de (aik) obtenemos a31 = a32 = 0 luego

y1 = t1 + a11x1 + a12x2

y2 = t2 + a21x1 + a22x2

y3 = t3 + x3

(7.6)

El determinante de la matriz del sistema es∣∣∣∣∣∣

a11 a12 0a21 a22 00 0 1

∣∣∣∣∣∣=

∣∣∣∣a11 a12

a21 a22

∣∣∣∣

De la ortonormalidad se tiene

a211 + a2

12 = 1a221 + a2

22 = 1

Tambien a11a21 + a12a22 + a13a23 = 0 luego a11a21 + a12a22 = 0.

Como det(aik) = 1,∣∣∣∣

a11 a12

a21 a22

∣∣∣∣ = 1 luego(

a11 a12

a21 a22

)es ortogonal.

Ella es la matriz de las dos primeras ecuaciones de (7.6), luego estas dos ecua-ciones definen un movimiento rıgido en R2. Ademas no es posible tener a11 =a22 = 1 porque en tal caso p = 3. Entonces este movimiento rıgido en R2 tiene unpunto fijo, esto es, hay x1, x2 que satisfacen y1 = x1, y2 = x2. Sea S ∈ R3 cuyasdos primeras coordenadas en [Q; ~β1, ~β2, ~β3] son x1, x2. S∗ tiene entonces comosus dos primeras coordenadas y1 = x1, y2 = x2 y por lo tanto las dos primerascomponentes de

−−→SS∗ son cero. Este resultado, aunque lo hemos obtenido usando

el sistema de coordenadas [Q; ~β1, ~β2, ~β3], es independiente del origen y es vali-do tambien en [S; ~β1, ~β2, ~β3], luego S∗ tiene las mismas coordenadas que S en

Page 125: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

7.2. MOVIMIENTOS RIGIDOS EN R3 121

este nuevo sistema, y, habiendo elegido a S como nuevo origen, esto significaque las dos primeras coordenadas tanto de S como de S∗ son cero. Dado quelas ecuaciones de f mantienen su forma aunque hayamos cambiado el sistema decoordenadas, lo dicho sobre las coordenadas de S y S∗ visto en (7.6) nos dice quelas ecuaciones de f en [S, ~β1, ~β2, ~β3] tienen la forma

y1 = a11x1 − a12x2

y2 = a21x1 + a22x2

y3 = t3 + x3.

Como(

a11 a12

a21 a22

)es ortogonal, podemos determinar de manera unica un angu-

lo ϕ, 0 ≤ ϕ ≤ 2π, tal que a11 = cos ϕ, a21 = sen ϕ, a12 = − sen ϕ, a22 = cos ϕ,luego en [S; ~β1, ~β2, ~β3] las ecuaciones de f son

y1 = x1 cos ϕ− x2 sen ϕ

y2 = x1 sen ϕ + x2 cosϕ

y3 = t3 + x3

Consideremos una recta ` paralela a ~β3. Todos sus puntos tienen sus dos primerascoordenadas x1, x2 iguales, su interseccion con el plano x1, x2 tiene coordenadasx1, x2, 0. Buscamos `∗. Sea P ∈ ` de coordenadas x1, x2, x3. Las dos primerasecuaciones no dependen de x3 luego todos los P ∗ tienen la misma interseccion y1,y2, 0 con el plano y1, y2, y las dos coordenadas y1, y2 estan determinadas por lasdos primeras ecuaciones de (7.5) donde x1, x2 son las dos primeras coordenadasde la interseccion de ` con el plano x1, x2. Dicho en otras palabras, `∗ queda com-pletamente determinada una vez conocida la imagen de este punto interseccion.Por otra parte, estas dos ecuaciones definen una rotacion de angulo ϕ en torno alorigen. Consideremos la rotacion en R3 en torno al eje x3 y de angulo ϕ, el punto(x1, x2, 0) ∈ ` va al punto (y1, y2, 0) ∈ `∗ luego ` va a `∗. Como ` es arbitraria,esto es cierto para cualquier recta paralela a ~β3. Nuestro movimiento rıgido secompone de una rotacion de R3 en torno al eje x3 de [S; ~β1, ~β2, ~β3] seguida deuna traslacion en la direccion de dicho eje.

ii.- p = 3. Vimos que en cualquier sistema cartesiano det(aik) vale 1 y que aik = δik,las ecuaciones adoptan la forma

y1 = t1 + x1

y2 = t2 + x2

y3 = t3 + x3

lo cual representa una traslacion.

iii.- q = 1. En este caso det(aik) = −1 en todo sistema de coordenadas cartesianas.Sea ~γ3, ‖~γ3‖ = 1 tal que ~γ3 va a−~γ3, extendamos a una base ortonormal ~γ1, ~γ2, ~γ3,escribamos las ecuaciones de f en [Q;~γ1, ~γ2, ~γ3]. Sean u1, u2, u3 las componentesde ~γ3. Como ~γ3 7→ −~γ3 se tiene que u∗1 = u∗2 = 0, u∗3 = −1 si u1 = u2 = 0 y

Page 126: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

122 CAPITULO 7. MOVIMIENTOS RIGIDOS

u3 = 1. Pero esto es posible solo si a13 = a23 = 0 y a33 = −1. Se tiene

y1 = t1 + a11x1 + a12x2

y2 = t2 + a21x1 + a22x2

y3 = t3 − x3

(7.7)

Sea R ∈ R3 tal que su tercera coordenada es x3 = 12 t3 en [Q;~γ1, ~γ2, ~γ3]. Entonces

R∗ tiene y3 = 12 t3 y la tercera componente de

−−→RR∗ es 0. Tal como antes, su

tercera componente es 0 en [R;~γ1, ~γ2, ~γ3], donde R tiene coordenadas (0, 0, 0)luego y3 = 0 cuando x1 = x2 = x3 = 0, y por lo tanto t3 = 0. El determinantedel sistema (7.7) es

−∣∣∣∣

a11 a12

a21 a22

∣∣∣∣ = −1

luego(

a11 a12

a21 a22

)es ortogonal.

Si a11 = 1 entonces a22 = a11 = 1 luego a12 = a21 = 0 y las ecuaciones (7.7)adoptan la forma

y1 = t1 + x1

y2 = t2 + x2

y3 = −x3;

en este caso f consiste en una reflexion en el plano x1, x2 seguida de una traslacionparalela a ese plano.

Si a11 6= 1, hay dos numeros x1, x2 que sustituıdos en las dos primeras ecuacionesde (7.7) dan y1 = x1, y2 = x2. Sea S ∈ R3 tal que sus dos primeras coordenadasen [R;~γ1, ~γ2, ~γ3] son x1, x2 y tal que x3 = 0. Entonces S∗ tiene coordenadasy1 = x1, y2 = x2, y3 = −x3 = 0 ya que t3 = 0. Como S es punto fijo de f ,x1 = x2 = x3 = 0 entonces y1 = y2 = y3 = 0 y finalmente t1 = t2 = t3 = 0. Sean

a11 = cos ϕ , a21 = senϕ , a12 = − senϕ , a22 = cos ϕ ,

en [S;~γ1, ~γ2, ~γ3] las ecuaciones de f quedan

y1 = x1 cos ϕ− x2 sen ϕ

y2 = x2 sen ϕ + x2 cos ϕ

y3 = −x3

f es una reflexion en el plano x1, x2 seguida de una rotacion en torno al eje x3.

iv.- q = 3. det(aik) = −1 en todo sistema cartesiano, a11 = a22 = a33 = −1, aik = 0para i 6= k. Se tiene

y1 = t1 − x1

y2 = t2 − x2

y3 = t3 − x3

Page 127: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

7.2. MOVIMIENTOS RIGIDOS EN R3 123

Sea Q ∈ R3 con x1 = 12 t1, x2 = 1

2 t2, x3 = 12 t3 entonces Q∗ tiene las mismas

coordenadas que Q. Considere el sistema [Q;~γ1, ~γ2, ~γ3] en este sistema x1 = x2 =x3 = 0 entonces y1 = y2 = y3 = 0, y finalmente t1 = t2 = t3 = 0. Entonces

y1 = −x1

y2 = −x2

y3 = −x3

y f es una reflexion en el origen.

Page 128: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

124 CAPITULO 7. MOVIMIENTOS RIGIDOS

Page 129: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Capıtulo 8

Problemas propuestos

1. Sean A y B matrices de m × n. Diremos que B es equivalente por filas con Asi B se obtiene de A mediante una sucesion finita de operaciones elementales fila.

Sean

A =

1 2 0 −1 51 1 −1 2 13 0 1 1 24 4 −2 1 0

, B =

1 0 1 0 20 1 1 1 −14 2 3 1 01 0 1 0 1

¿Son A y B equivalentes por filas?

2. Sea R matriz de m × n. Diremos que R es reducida por filas si se cumplen lassiguientes condiciones:

i. El primer elemento distinto de cero de una fila no nula es igual a 1 (una filanula es una fila que consta solo de ceros).

ii. Toda columna que contiene al primer elemento no nulo de una fila tienetodos sus demas elementos iguales a cero.

Demuestre que toda matriz A de m× n es equivalente por filas a una matriz Rreducida por filas. Encuentre todas las matrices de 3× 3 reducidas por filas.

3. Sea B una matriz de n × p. Encuentre una matriz C de m × p cuyas filas seancombinaciones lineales de las filas de B. Demuestre que existe una matriz A dem× n tal que C = AB.

Enuncie y verifique una proposicion similar para las columnas.

4. Sea E de m×m. Diremos que E es elemental si se obtiene de la matriz identidadde m×m mediante una sola operacion elemental fila. Sea e operacion elementalfila, sea A una matriz arbitraria de m×n. Sea e(A) la matriz resultante de aplicare a A, sea e(I) la correspondiente matriz elemental. Demuestre que e(A) = e(I)A.

125

Page 130: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

126 CAPITULO 8. PROBLEMAS PROPUESTOS

Sean A y B matrices de m × n. Demuestre que B es equivalente por filas conA si y solo si B = PA donde P es un producto de matrices elementales de m×m.

5. Sea A matriz invertible de orden n. Demuestre que A es equivalente por filas ala matriz identidad de orden n. Invente un algoritmo para calcular la inversa deA. Materialice su invencion calculando la inversa de

A =

1 −1 12 0 13 0 1

6. Sea A de n× n. Demuestre que las siguientes propiedades son equivalentes.

i. A es invertible.

ii. A es equivalente por filas a la identidad.

iii. A es un producto de matrices elementales.

iv. AX = 0 tiene solo la solucion trivial.

v. AX = Y tiene solucion para cada matriz Y .

7. Sea

A =

1 2 1 0−1 0 3 51 −2 1 1

Encuentre una matriz R reducida por filas equivalente por filas a A y encuentreP de 3× 3 tal que R = PA.

8. a. Sea A de 2× 1, B de 1× 2. Demuestre que C = AB no es invertible.

b. Sea A de m× n, demuestre que si A no es invertible hay B 6= 0 de n× n talque AB = 0.

9. Sea Rn el conjunto de las n-tuplas de numeros reales y En = Rn con las defini-ciones de suma y multiplicacion por un escalar.

Sean A = (a1, a2, . . . , an), B = (b1, b2, . . . , bn) puntos de Rn. Sean a, b las mismasn-tuplas miradas como elementos de En. Sea h : Rn × Rn → En dada porh[(A,B)] = b − a. Diremos que el par (A,B) representa a b − a y lo anotamoscomo

−−→AB; decimos que A es el punto inicial de

−−→AB y B es su punto final.

Demuestre que

i. Dado A ∈ Rn, x ∈ En, hay un unico B ∈ Rn tal que el par (A,B) representaa x.

ii. Si (A,B) representa a x, (B, C) representa a y, entonces (A,C) representaa z = x + y.

iii. Si A ∈ Rn entonces (A,A) representa a 0 ∈ En.

iv. Si (A,B) representa a x entonces (B, A) representa a −x.

v. Demuestre que si x ∈ En entonces hay infinitos pares (A,B) que lo repre-sentan. De aquı en adelante, en lugar de escribir que (A,B) representa ab− a escribiremos

−−→AB = b− a.

Page 131: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

127

vi. Sea λ real arbitrario. Demuestre que hay un unico punto P (λ) ∈ Rn talque

−→AP = λ(b− a) y que si p(λ) es la misma n-tupla que corresponde a P

mirada como elemento de En entonces p(λ) = a + λ(b− a).

Llamaremos recta por A de direccion−−→AB al conjunto de puntos de Rn

{a1 + λ(b1 − a1), a2 + λ(b2 − a2), . . . , an + λ(bn − an) : λ ∈ Rn}

Diremos que p(λ) = a + λ(b− a) es la ecuacion vectorial de la recta (la cualtambien puede escribirse como

−−−−→AP (λ) = λ

−−→AB ). Si C, D ∈ Rn, llamaremos

segmento de recta CD al subconjunto de la recta por C y de direccion−−→CD

correspondiente a 0 ≤ λ ≤ 1.

Demuestre que si A, B son puntos del segmento CD entonces AB ⊂ CD.Demuestre que la recta por A y direccion

−−→AB es la misma que la original.

Sean a, b ∈ En. Demuestre que a y b son l.d. si y solo si−−→AP1 = a,

−−→AP2 = b

son tales que P1 y P2 estan sobre la misma recta en Rn.

10. En E5 sean

a1 = (1, 0, 2,−1, 3)a2 = (0, 0, 1, 1,−1)a3 = (1, 1, 2, 0, 0)

i. ¿Cual es la dimension de L(a1, a2, a3)?

ii. ¿ Esta (1, 0, 0, 0, 0) en L(a1, a2, a3)?

iii. Si es que dim L(a1, a2, a3) = 3, extienda a1, a2, a3 a una base de E5.

11. En E4 sean

a1 = (3,−1, 1, 2)a2 = (4,−1,−2, 3)a3 = (10,−3, 0, 7)a4 = (−1, 1,−7, 0)

Sea L1 = L(a1, a2, a3, a4). Sean

b1 = (2,−4,−3, 7)b2 = (5, 2, 2,−1)

Sea L2 = L(b1, b2).

Encuentre dim L1, dim L2, dim L1 ∩ L2, dim(L1 + L2).

12. Sea L un subespacio de En. Sea X = {y ∈ En : (x− y) ∈ L}, sea Z = {y ∈ En :(z − y) ∈ L}. Demuestre que si X ∩ Z 6= ∅ entonces X = Z. Llamaremos a Xla clase del elemento x ∈ En. Demuestre que si w ∈ X entonces la clase W delelemento w es X. A los elementos de una clase los llamaremos representativos

Page 132: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

128 CAPITULO 8. PROBLEMAS PROPUESTOS

de la clase. Sea En/L el conjunto de las clases de X. Definimos combinacionlineal de las clases X e Y a la siguiente clase: sean x ∈ X, y ∈ Y arbitrarios.Llamaremos αX + βY a la clase que contiene a αx + βy. Demuestre que la clasedefinida es independiente de la eleccion de x ∈ X o y ∈ Y .

13. Sea h : En → En/L definida por h(x) = X. Demuestre que h es sobre pero no1-1. Demuestre que

h(x + z) = h(x) + h(z) ∀x, z ∈ En

h(αx) = αh(x) ∀x ∈ En, ∀α ∈ R

14. Sea AX = B un sistema de n + 1 ecuaciones con n incognitas. Sea A = (aij),B = (Bi) y supongamos que el determinante de la matriz que consiste de lasprimeras n filas de A es distinto de cero. Demuestre que el sistema tiene solucionsi y solo si det(cij) = 0 donde la matriz (cij) esta definida como: cij = aij si1 ≤ i ≤ n + 1, 1 ≤ j ≤ n, ci(n+1) = bi, 1 ≤ i ≤ n + 1.

15. Sea

D =

∣∣∣∣∣∣∣∣∣∣

−2 5 0 −1 31 0 3 7 −23 −1 0 5 −52 6 −4 1 20 −3 −1 2 3

∣∣∣∣∣∣∣∣∣∣Calcule el valor de D desarrollando por los menores de las filas 2,3 y 5. Verifiqueque su valor es -1032.

16. Sea A una matriz de m × n. Supongamos que un menor de orden r de A esdistinto de cero, r < mın(m,n), r > 0. Demuestre que A tiene al menos r filas yr columnas l.i.

17. Resuelva el sistema de ecuaciones lineales

(3 + i)z1 − iz2 + z3 = 02z1 + iz2 − (1− i)z3 = 0

(1 + i)z1 + 0 · z2 + 2z3 = 0z1 − iz2 + (1 + i)z3 = 0

iz1 − z2 + 3z3 = 0

donde zj = xj + iyj , j = 1, 2, 3, sin separar parte real e imaginaria. Verifique suresultado resolviendo el sistema separando en parte real y parte imaginaria.

18. Estudie las soluciones del sistema

λz1 + iz1 + z3 = 1iz1 + λz2 + iz3 = iλz1 + (1− i)z2 + λz3 = iλ2

como una funcion de λ.

Page 133: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

129

19. Sean

~β1 = {1,−1, 2, 0} , ~β2 = {0, 1, 1, 0}~β3 = {2, 1, 0,−1} , ~β4 = {1, 0,−1, 2}

vectores en V 4, sea Q = (1, 1, 1, 1) un punto en R4. Verifique que [Q; ~β1, ~β2, ~β3, ~β4]es un sistema de coordenadas en R4. Encuentre las coordenadas del punto P =(0, 1, 1, 0) en dicho sistema. ¿Cuales son las coordenadas de Q? Dado ~α ={0, 1, 1, 0} ∈ V 4, encuentre las componentes de ~α con respecto al sistema decoordenadas dado. ¿Cuales son las componentes de ~β1, y las de ~β1 + ~β2? En-cuentre la ley de transformacion de coordenadas para pasar del sistema dado a[0;~e1, ~e2, ~e3, ~e4] y viceversa. Encuentre las coordenadas de P en [O;~e1, ~e2, ~e3, ~e4]y verifique que sus formulas son correctas. ¿Cual es la ley de transformacion paralas componentes de los vectores? Encuentre las componentes de ~α en [O;~e1, ~e2, ~e3, ~e4]y verifique que su ley de transformacion es correcta.

20. Sean ~α1 = {− 12 , 3

2 , 1, 0}, ~α2 = {0, 1, 0, 1} vectores en V 4 cuyas componentesestan dadas en [O;~e1, ~e2, ~e3, ~e4]. Sea P0 ∈ R4 de coordenadas (0, 3, 2, 0) en talsistema. Sea L el subespacio de V 4 generado por ~α1 y ~α2. Encuentre todos lospuntos (x1, x2, x3, x4) ∈ R4 que estan sobre la variedad lineal M obtenida decopiar L en P0. Demuestre que el conjunto de soluciones del sistema

x1 + x2 − x3 − x4 = 1x1 − x2 + 2x3 + x4 = 1

es exactamente tal variedad lineal.

Encuentre el subespacio L′ de vectores ortogonales a L, luego encuentre un sis-tema homogeneo cuyo espacio de soluciones es L y a continuacion encuentre unsistema no homogeneo cuyo conjunto de soluciones sea el de los puntos de M .

Encuentre el sistema de ecuaciones que representa a M en el sistema [Q; ~β1, ~β2, ~β3, ~β4]del ejercicio (19).

21. Sean

~α1 = {−1, 1,−1, 1}~α2 = {2, 1,−1, 1}~α3 = {0, 1, 1, 1}~α4 = {0, 0, 1, 1}

vectores en V 4 cuyas componentes estan dadas en la base estandar. Encuentreel volumen del paralelotopo de aristas ~α1, ~α2, ~α3, ~α4. Con respecto al sistemade coordenadas [Q; ~β1, ~β2, ~β3, ~β4] del ejercicio anterior, verifique e interprete laformula

det(aik) = det(a∗ik) det(vik) (Seccion 6.4)

Page 134: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

130 CAPITULO 8. PROBLEMAS PROPUESTOS

Encuentre la formula para el producto escalar en la base ~β1, ~β2, ~β3, ~β4. Use elmetodo de Gram-Schmidt con el producto escalar en la base estandar para ob-tener un sistema ortonormal de vectores ~α′1, ~α

′2, ~α

′3, ~α

′4 a partir de ~α1, ~α2, ~α3, ~α4,

y otro ~β′1, ~β′2, ~β′3, ~β′4 a partir de ~β1, ~β2, ~β3, ~β4. Verifique que la matriz de tran-sicion del sistema ~α′1, ~α

′2, ~α

′3, ~α

′4 al sistema ~β′1, ~β′2, ~β′3, ~β′4 es ortogonal. Exprese

los vectores ~α1, ~α2, ~α3, ~α4 en el sistema ~α′1, ~α′2, ~α

′3, ~α

′4 y verifique e interprete la

formula|det(aik)| = | det(a∗ik)||det(vik)|

22. Sea M la variedad lineal del ejercicio (20) expresada en el sistema de coorde-nadas [O;~e1, ~e2, ~e3, ~e4], sea P de coordenadas (1, 1, 0, 0) en tal sistema. Encuentrela direccion de la recta perpendicular de P a M , el pie de la perpendicular enM y la longitud de tal perpendicular por el metodo descrito en el libro (sin usarel sistema de ecuaciones que representa a M).

Considere el hiperplano x1 +x2 +x3 +x4 = 1 y el punto P = (1, 1, 0, 0). Encuen-tre la direccion, pie y longitud de la perpendicular de P al hiperplano. Encuentreun vector ortogonal a M y al hiperplano dado.

23. Sea f : R4 → R4 dada por

yi = ti +4∑

k=1

aikxk i = 1, 2, 3, 4

un movimiento rıgido (las coordenadas se suponen dadas en [O;~e1, ~e2, ~e3, ~e4].Sean P1, P2, P3, P4 tales que

−−→OPi = ~ei i = 1, 2, 3, 4, O∗ = f(O), P ∗i = f(Pi) i =

1, 2, 3, 4. Verifique que la matriz (aij) es ortogonal. Sea ~e∗i =−−−→O∗P ∗i i = 1, 2, 3, 4,

sea P = (x1, x2, x3, x4). Encuentre las coordenadas de P en el sistema de coorde-nadas [O∗;~e∗1, ~e

∗2, ~e

∗3, ~e

∗4]. ¿Cual es la ecuacion del hiperplano x1+x2+x3+x4 = 1

en el segundo sistema?

Page 135: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Bibliografıa

[1] Lectures on Linear Algebra, Gel’fand I. M., New York, Interscience (1961).

[2] Higher Algebra, Kurosh A. G., Moscow, Mir Publishers (1972).

[3] Introduction to Modern Algebra and Matrix Theory, Schreier, O. - Sperner E.,New York, Chelsea.

[4] Linear Algebra, Shilov G. E., Engelwood Cliffs, N. J., Prentice Hall (1961).

[5] Linear Algebra and Multi-dimensional Geometry, Efimov N. V. - Rozendorn E.R., Mir Publishers (1975).

131

Page 136: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

Indice alfabetico

Rn, 29n-tupla, 2, 29Angulo entre vectores, 85

Adjunto de un menor, 21

Base, 34Base estandar, 35, 65

Coeficientes, 1Combinacion lineal, 1, 30Compatibilidad de sistemas homogeneos,

51Compatibilidad de sistemas no homogeneos,

46Componentes, 29, 63, 92Componentes con respecto a una base, 35Consideraciones sobre geometrıa analıtica,

79Construccion de sistemas ortonormales, 104Coordenadas, 91

Deformacion continua de sistemas de co-ordenadas, 100

Delta de Kronecker, 36, 59, 98Dependencia lineal, 30Desigualdad de Cauchy-Schwarz, 83Desigualdad triangular, 84Determinante, 8, 11, 12

Desarrollo por adjuntos, 22Propiedades, 13

Dimension, 34Dimension de un subespacio, 66, 68Distancia, 83Distancia a una variedad lineal, 105

Ecuacion lineal con n incognitas, 1Ecuacion lineal homogenea, 1Espacio euclıdeo n-dimensional, 83Espacio vectorial n-dimensional, 29

Independencia lineal, 30

Inversion, 9

l.d., 31l.i., 31Linealmente dependientes, 30Linealmente independientes, 30Longitud de un segmento, 83Longitud de un vector, 83

Metodo de eliminacion de Gauss, 3Matrices

Igualdad, 55Inverso aditivo, 55Matriz nula, 55Producto de matrices, 56Producto por un numero escalar, 55Suma de matrices, 55

Matrices elementales, 125Matrices equivalentes, 43Matrices equivalentes por filas, 125Matriz adjunta, 59Matriz ampliada, 46Matriz diagonal, 43Matriz inversa, 60Matriz reducida por filas, 125Matriz singular, 58Matriz traspuesta, 12, 59Matriz triangular

inferior, 23superior, 23

Menor de un determinante, 19Menor complementario, 20

Menor de una matriz, 39Menor orlado, 39

Movimiento rıgido, 111Movimientos rıgidos en R2, 115Movimientos rıgidos en R3, 118Movimientos rıgidos y producto escalar,

111Movimientos rıgidos y variedades lineales,

112

132

Page 137: Conceptos Básicos de Algebra Lineal y Geometr´ıa Multidimensional

INDICE ALFABETICO 133

Mutuamente ortogonales, 65

Norma, 83

Origen de un sistema de coordenadas, 91Ortogonalidad, 65, 85Ortonormalizacion de Gram-Schmidt, 104

Paralelogramo, 86lados del, 86

Paralelepıpedo, 86aristas del, 86

Paralelotopo, 86aristas del, 86

Permutacion, 8Impar, 9Par, 9Permutacion natural, 8

Producto de determinantes, 56Producto escalar, 64Proyeccion ortogonal, 105Puntos, 63

Rango de un sistema de vectores, 37Rango de una matriz, 38

Rango columna, 38Rango fila, 38

Recta, 63, 127Reflexion, 117Reflexion con respecto a un plano, 122Reflexion con respecto al origen, 123Regla de Cramer, 8, 25Rotacion, 118Rotacion en torno a un eje, 121, 122

Segmento, 63dirigido, 63Punto final, 63Punto inicial, 63Puntos extremos, 63

Sistema afın de coordenadas, 73Sistema de coordenadas, 91Sistema de coordenadas cartesianas, 98Sistema de ecuaciones compatible, 2Sistema de ecuaciones compatible deter-

minado, 2, 5Sistema de ecuaciones compatible indeter-

minado, 2, 5Sistema de ecuaciones incompatible, 2, 4Sistema fundamental de soluciones, 51Sistema homogeneo de ecuaciones lineales,

2, 6

Sistema linealmente independiente maxi-mal, 32

Sistema ortonormal de vectores, 98Sistemas de coordenadas, 91Sistemas de ecuaciones equivalentes, 2Sistemas de vectores equivalentes, 34Solucion de un sistema de ecuaciones line-

ales, 2Solucion de una ecuacion lineal, 1Subespacio, 65Subespacio de soluciones de un sistema

homogeneo, 79Subespacio generado por un conjunto de

vectores, 65Suma de subespacios, 68Sustitucion, 10

Impar, 10par, 10

Termino libre, 1Teorema de Laplace, 23Transformacion de coordenadas, 93Transformaciones elementales de una ma-

triz, 42Transposicion, 8Traslacion, 121

VandermondeDeterminante de, 18Matriz de, 18

Variedad lineal, 72Variedades lineales paralelas, 74Variedades lineales y sistemas de ecuaciones,

95Vectores, 29, 63

Diferencia de vectores, 30Inverso aditivo, 29, 64Producto por un numero escalar, 30,

64Propiedades, 63Suma de vectores, 29, 64Vector nulo, 29, 63

Volumenes y sistemas de coordenadas carte-sianas, 97

Volumen de un paralelotopo n-dimensional,86, 89