APUNTES-mat1203

51
Apuntes de ´ Algebra Lineal Carolina B. Becerra O. Agosto 2012

Transcript of APUNTES-mat1203

Page 1: APUNTES-mat1203

Apuntes de Algebra LinealCarolina B. Becerra O.

Agosto 2012

Page 2: APUNTES-mat1203

2

Page 3: APUNTES-mat1203

Indice general

1. Vectores en Rn 5

2. Sistemas de ecuaciones 11

3. Matrices 15

4. Determinantes 25

5. Espacios vectoriales 27

6. Transformaciones lineales 33

7. Valores y vectores propios 39

8. Ortogonalidad 43

9. Matrices Simetricas 49

3

Page 4: APUNTES-mat1203

4 INDICE GENERAL

Page 5: APUNTES-mat1203

Capıtulo 1

Vectores en Rn

Definicion 1.1. El conjunto de n tuplas ordenadas de numeros reales sedenota por Rn y a sus elementos se les llama vectores.

Rn =

v =

x1

...xn

tal que x1, . . . , xn ∈ R

A x1, . . . , xn se les llama componentes o coordenadas del vector v. Al vectorcuyas componentes son todas 0 se le llama vector nulo y se denota por

−→0 .

Definicion 1.2. Vectores canonicos:

ei =

0...010...0

← i , para i = 1, . . . , n

Definicion 1.3. Dados u, v ∈ Rn la suma de u y v, denotada por u+ v es elvector cuyas componentes son la suma de las respectivas componentes de uy v. Dado α ∈ R, la ponderacion de u por el escalar α ∈ R es el vector cuyascomponentes son el producto de α por las respectivas componentes de u. Esdecir:

Si u =

x1

...xn

, v =

y1...yn

, entonces u+ v =

x1 + y1...

xn + yn

, αu =

αx1

...αxn

.5

Page 6: APUNTES-mat1203

6 CAPITULO 1. VECTORES EN RN

Proposicion 1.4. Sean u, v, w ∈ Rn y α, β ∈ R. Entonces las operacionesanteriores satisfacen:

u+ v ∈ Rn.

(u+ v) + w = u+ (v + w).

u+ v = v + u.

u+−→0 = u.

u+ (−u) = −→0 .

αu ∈ Rn.

α(u+ v) = αu+ αv.

(α+ β)u = αu+ βu.

α(βu) = (αβ)u.

1 u = u.

Observacion 1.5. Sea α ∈ R y u ∈ Rn. αu = 0 si y solo si α = 0 o u = 0.

Definicion 1.6. Sean u, v ∈ Rn, el producto punto de u y v, denotado poru · v, es la suma de los respectivos productos entre coordenadas. Es decir

Si u =

x1

...xn

, v =

y1...yn

, entonces u · v = x1y1 + . . .+ xnyn =n∑

i=1

xiyi.

Proposicion 1.7. Sea u, v, w ∈ Rn y α ∈ R. Entonces el producto puntosatisface:

u · v ∈ R.

u · 0 = 0.

u · v = v · u.

u · (v + w) = u · v + u · w.

α(u · v) = (αu) · v.

Page 7: APUNTES-mat1203

7

u · u ≥ 0 y u · u = 0↔ u = 0.

Ejemplo 1.8. ei · ej =

{1 si i = j

0 si i = j.para todo i, j = 1, . . . , n.

Definicion 1.9. Norma de un vector: Dado u =

x1

...xn

∈ Rn,

∥u∥ =√

n∑i=1

xi2 =√u · u.

Definicion 1.10. Vector unitario: vector que tiene norma 1.

Definicion 1.11. Distancia entre vectores: d(u, v) = ∥u− v∥.

Ejemplo 1.12. ∥ei∥ = 1 para todo i = 1 . . . n.

d(ei, ej) =

{0 si i = j√2 si i = j.

para todo i, j = 1, . . . , n.

Proposicion 1.13. Sean α ∈ R y u, v ∈ Rn. Entonces

∥αu∥ = |α|∥u∥.

∥u+ v∥2 = ∥u∥2 + ∥v∥2 + 2u · v.

|u · v| ≤ ∥u∥∥v∥.

∥u+ v∥ ≤ ∥u∥+ ∥v∥.

Definicion 1.14. Sean u, v ∈ Rn−{0}. El angulo θ entre dos vectores es tal

que: cos(θ) =u · v∥u∥∥v∥

.

Ejemplo 1.15. θ(ei, ej) =

{0 si i = j

π/2 si i = j.para todo i, j = 1, . . . , n.

Definicion 1.16. Sea {v1, . . . , vm} ⊆ Rn. Una combinacion lineal de losvectores v1, . . . , vm es el vector

α1v1 + . . .+ αmvm,

donde αi ∈ R, para algunos α1, . . . , αm ∈ R.

Page 8: APUNTES-mat1203

8 CAPITULO 1. VECTORES EN RN

Definicion 1.17. Sea S ⊆ Rn. El conjunto generado por S, denotado por< S > es el conjunto de todas las combinaciones lineales de vectores de S.

Ejemplo 1.18. < e1, . . . en >= Rn.

Proposicion 1.19. Sean S, S1, S2 ⊆ Rn. Entonces

< ϕ >=<−→0 >= {−→0 }.

−→0 ∈< S >.

< S > es cerrado bajo la suma y multiplicacion por escalar.

S ⊂< S >.

S1 ⊂ S2 →< S1 >⊂< S2 >.

S1 ⊂< S2 >→< S1 >⊂< S2 >.

< S >=<< S >>.

Teorema 1.20. Sea S = {v1, v2, . . . , vm} ⊆ Rn.Si v1 es combinacion lineal de v2, . . . , vm, entonces

< v1, v2, . . . , vm >=< v2, . . . , vm >

Definicion 1.21. Sea S = {v1, v2, . . . , vm} ⊆ Rn.

S es linealmente dependiente (LD) si existen escalares α1, . . . , αm

no todos nulos tal que α1v1 + . . . + αmvm =−→0 . (se puede construir al

vector cero de manera no trivial).

S es linealmente independiente (LI) si no es LD, es decir si para

cualquier combinacion lineal α1v1+ . . .+αmvm =−→0 , se tiene necesari-

amente que α1 = . . . = αm = 0. (la unica manera de construir al vectorcero es la trivial).

Observacion 1.22. Si 0 ∈ S ⊆ Rn, entonces S es LD.

Proposicion 1.23. Sea S ⊆ Rn. Entonces

S es LD si y solo si existe un vector de S que es combinacion lineal delresto de los vectores de S.

Page 9: APUNTES-mat1203

9

S es LI si y solo si todo subconjunto de S es LI.

Definicion 1.24. Recta en R2. Sea d ∈ R2 no nulo, L = {x ∈ R2 tal que x =u+ αd, α ∈ R}. Si u = 0 se dice que L pasa por el origen.

Definicion 1.25. Recta en R3. Sea d ∈ R3 no nulo, L = {x ∈ R3 tal que x =u+ αd, α ∈ R}. Si u = 0 se dice que L pasa por el origen.

Definicion 1.26. Recta en Rn. Sea d ∈ Rn no nulo, L = {x ∈ Rn tal que x =u+ αd, α ∈ R}. Si u = 0 se dice que L pasa por el origen.

Definicion 1.27. Plano en R3. Sea d1, d2 ∈ Rn L.I, Π = {x ∈ Rn tal que x =u+ αd1 + βd2, α, β ∈ R}. Si u = 0 se dice que Π pasa por el origen.

Definicion 1.28. Sean u ∈ Rn y b ∈ R. El hiperplano definido por u y b esH = {x ∈ Rn : x · u = b}. Si b = 0, se dice que pasa por el origen.

Ejemplo 1.29. En R4 seaH = {x ∈ R4 : x1+x2−2x3−x4 = 0 tal que x1, x2, x3, x4 ∈R}.

x ∈ H ↔ x =

x1

x2

x3

x1 + x2 − 2x3

para x1, x2, x3 ∈ R.

x ∈ H ↔ x = x1

1001

+ x2

0101

+ x3

001−2

para x1, x2, x3 ∈ R.

Por lo tanto H =<

1001

,

0101

,

001−2

>.

Observacion 1.30. Todo hiperplano en Rn que pasa por el origen es unconjunto generado por (n − 1) vectores L.I. Todo hiperplano en Rn es lasuma de un vector posicion y un conjunto generado por (n− 1) vectores L.I.Todo hiperplano en R3 es un plano en R3.

Observacion 1.31. Problema importante: ¿ Todo plano en R3 es un hiper-plano?

Observacion 1.32. Problema importante: Dado un conjunto S y un vectorb en Rn. ¿b ∈< S >?

Page 10: APUNTES-mat1203

10 CAPITULO 1. VECTORES EN RN

Page 11: APUNTES-mat1203

Capıtulo 2

Sistemas de ecuaciones

Definicion 2.1. Una matriz es un arreglo ordenado de m vectores de Rn.Notacion: A = [v1 v2 . . . vm]. Se dice que A es una matriz de n×m, dondem es el numero de columnas y n es el numero de filas.

Si vj =

a1,j...

an,j

para j = 1, . . . ,m, entonces A = (ai,j), donde ai,j son los

coeficientes o entradas de la matriz.

Definicion 2.2. Matriz nula es tal que todos sus coeficientes son 0.

Definicion 2.3. Matriz cuadrada es tal que n = m.

Definicion 2.4. Matriz identidad es una matriz cuadrada denotada por Ital que I = [e1 . . . en].

Definicion 2.5. Dada A = [v1 v2 . . . vm] de n×m y x =

x1

...xm

∈ Rm, el

producto de A por x es Ax = x1v1 + x2v2 + . . .+ xmvm ∈ Rn.

Proposicion 2.6. Sea A de n×m, x, y ∈ Rm y α ∈ R. Entonces

A(x+ y) = Ax+ Ay.

A(αx) = αAx.

A0 = 0.

11

Page 12: APUNTES-mat1203

12 CAPITULO 2. SISTEMAS DE ECUACIONES

Observacion 2.7. Todo sistema de ecuaciones se puede escribir de la formamatricial Ax = b.

Definicion 2.8. Un sistema de ecuaciones Ax = b es tal que A es una matrizde n×m asociada al sistema, b ∈ Rn y x ∈ Rm. [A b] es la matriz ampliadadel sistema.El sistema es homogeneo si b =

−→0 y no homogeneo si b = −→0 . El sistema es

consistente si tiene solucion e inconsistente si no tiene solucion.

Definicion 2.9. Una matriz se dice que esta en la forma escalonada (F.E.)si:

1. a1,1 = 0.

2. Si el pivote de la fila i esta en la columna j, entonces el pivote de lafila i+ 1 esta en la columna k, tal que j < k. (Pivote: primer elementodistinto de 0 de la fila).

3. Las filas nulas estan al final de la matriz.

Definicion 2.10. Una matriz se dice que esta en la forma escalonada re-ducida (F.E.R.) si:

1. Esta es la F.E.

2. Todos los pivotes son iguales a 1.

3. Los vectores columna que contienen pivotes son canonicos.

Definicion 2.11. Dada una matriz, las operaciones fila son:

1. Tipo I: Intercambiar dos filas: Fi ↔ Fj.

2. Tipo II: Multiplicar una fila por un escalar no nulo: Fi → λFi.

3. Tipo III: (pivotear) Sumar a una fila, un multiplo escalar de otra:Fi → Fi + λFj.

Observacion 2.12. Para solucionar un sistema de ecuaciones se lleva lamatriz ampliada a su F.E. o a su F.E.R., usando operaciones fila, luego sereinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistemaes consistente, a las variables que quedan en posiciones no pivotes se les llamavariables libres.

Page 13: APUNTES-mat1203

13

Observacion 2.13. Lo anterior funciona pues si [A|b] ∼ [A′|b′], entoncesAx = b↔ A′x = b′.

Teorema 2.14. Sea el sistema de ecuaciones Ax = b con A de n×m, y Mla F.E.R. de la matriz M = [A b].

Para b = 0, el sistema

es inconsistente si y solo si M tiene una fila de la forma [0 . . . 0 c] conc = 0,

es consistente y tiene solucion unica si y solo si M tiene m pivotes,

es consistente y tiene infinitas soluciones si y solo si M tiene menos dem pivotes (hay variables libres).

Para b =−→0 el sistema es consistente (

−→0 es solucion) y

tiene solucion unica si y solo si F.E. de A tiene m pivotes,

tiene infinitas soluciones si y solo si F.E. de A tiene menos de m pivotes(hay variables libres).

Definicion 2.15. Rango de un sistema: numero de pivotes de la formaescalonada de la matriz ampliada del sistema. Rango de una matriz: numerode pivotes de la forma escalonada del sistema homogeneo asociado a la ma-triz.

Teorema 2.16. Sea el sistema Ax = b, u tal que Au = b y los conjuntosC1 = {x : Ax = b} y C2 = {y : Ay = 0}. Entonces x ∈ C1 si y solo six− u ∈ C2.

Proposicion 2.17. Sea S = {v1, . . . , vm} ⊂ Rn y A = [v1 . . . vm]. S es L.I.si y solo si el sistema Ax = 0 tiene solucion unica.

Proposicion 2.18. Sea S = {v1, . . . , vm} ⊂ Rn y A una matriz cuyas filasson los vectores del conjunto S. S es L.I. si y solo si la F.E. de la matriz Ano tiene filas nulas.

Teorema 2.19. Sea v1, . . . , vm un conjunto de vectores de Rn. Si m > n,entonces v1, . . . , vm es L.D.

Page 14: APUNTES-mat1203

14 CAPITULO 2. SISTEMAS DE ECUACIONES

Observacion 2.20. Sea S = {v1, . . . , vm} ⊂ Rn, A = [v1 . . . vm] y b ∈ Rn.Entonces b ∈< v1, . . . , vm > si y solo si el sistema Ax = b es consistente.

Observacion 2.21. Sea A de n × m y b1, . . . br ∈ Rn, para resolver Ax =b1, Ax = b2, . . . , Ax = br se escalona una unica matriz [A b1 b2 . . . br] y seinterpreta la solucion para cada sistema por separado.

Observacion 2.22. Para buscar la interseccion de n hiperplanos, se resuelveel sistema asociado a las n ecuaciones.

Page 15: APUNTES-mat1203

Capıtulo 3

Matrices

Definicion 3.1. Sea A una matriz de n × m, se define una funcion TA :Rm → Rn, dada por

TA(x) = Ax

Ejemplo 3.2. A =

[1 −2 10 1 3

], entonces TA

[123

]=

[011

].

Observacion 3.3. El dominio de esta funcion es Rm. La imagen de 0 ∈ Rm

es 0 ∈ Rn.

Proposicion 3.4. Sea A una matriz de n×m, la funcion TA se dice que eslineal pues para x, y ∈ Rm y α ∈ R

TA(x+ y) = A(x+ y) = Ax+ Ay = TA(x) + TA(y),

TA(αx) = A(αx) = αAx = αTA(x).

Observacion 3.5. En adelante la funcion TA se denotara por A.

Definicion 3.6. Mn,m(R) es el conjunto de todas las matrices de n×m concoeficientes reales.

Definicion 3.7. Sean A = [v1 . . . vm] , B = [u1 . . . um] ∈Mn,m(R) y α ∈ R.La operaciones suma y multiplicacion por escalar de matrices se definen porA+B = [v1 + u1 . . . vm + um] , αA = [αv1 . . . αvm].

Observacion 3.8. −1 · A = −A.

15

Page 16: APUNTES-mat1203

16 CAPITULO 3. MATRICES

Proposicion 3.9. Sean A,B,C ∈Mn,m(R) y α, β ∈ R. Entonces

A+B ∈Mn,m(R).

(A+B) + C = A+ (B + C).

A+B = B + A.

A+ 0 = A.

A+ (−A) = 0.

αA ∈Mn,m(R).

α(A+B) = αA+ αB.

(α+ β)A = αA+ βA.

α(βA) = (αβ)A.

1 A = A.

Definicion 3.10. Sea A de n×m y B de m× p, tal que B = [u1 . . . up], elproducto de A por B es la matriz A ·B = [A · u1 . . . A · up] de n× p.

Proposicion 3.11. Sean A,B,C matrices tal que las siguientes operacionesestan bien definidas y α ∈ R. Entonces

A(BC) = (AB)C.

α(AB) = (αA)B = A(αB).

A(B + C) = AB + AC.

(A+B)C = AC +BC.

IA = AI = A.

0A = A0 = 0.

Observacion 3.12. En general el producto de matrices no es conmutativo.

A =

[0 10 0

], B =

[1 00 0

]y AB =

[0 00 0

]=

[0 10 0

]= BA.

Page 17: APUNTES-mat1203

17

Definicion 3.13. Sea A de n×m, la trasnpuesta de A denotada por At esde m × n y es la matriz que resulta de intercambiar las filas de A por lascolumnas de la A.

Ejemplo 3.14. Si A =

[0 12 34 −1

], entonces At =

[0 2 41 3 −1

].

Proposicion 3.15. Sean A,B matrices tal que las siguientes operacionesestan bien definidas y α ∈ R. Entonces

(At)t = A.

α(At) = (αA)t.

(A+B)t = At +Bt.

(AB)t = BtAt.

Definicion 3.16. Sea A = (ai,j) de n× n.

A es triangular superior si ai,j = 0 para todo i > j.

A es triangular inferior si ai,j = 0 para todo i < j.

A es diagonal si ai,j = 0 para todo i = j.

A es simetrica si A = At.

A es antisimetrica si A = −At.

Definicion 3.17. Sea A de n×m.

Ker(A) = {x ∈ Rm : Ax =−→0 }. Es el conjunto de pre-imagenes del

vector cero. Es el conjunto solucion del sistema homogeneo asociado ala matriz A. Es un subconjunto de Rm.

Im(A) = {b ∈ Rn : ∃x ∈ Rm : Ax = b}. Es el recorrido de la funciondada por la matriz A. Es el conjunto de todos los vectores b tal que elsistema Ax = b es consitente. Es el conjunto generado por las columnasde la matriz A. Es un subconjunto de Rn.

Page 18: APUNTES-mat1203

18 CAPITULO 3. MATRICES

C(A) es el conjunto generado por las columnas de la matriz A. Es elrecorrido de la funcion dada por la matriz A. Es el conjunto de todos losvectores b tal que el sistema Ax = b es consistente. Es un subconjuntode Rn. (Esta generado por las columnas de la matriz que en su formaescalonada estan en las posiciones pivotes).

F (A) es el conjunto generado por las filas de la matriz A. Es un sub-conjunto de Rm. (Esta generado por las filas no nulas de la formaescalonada de la matriz).

Observacion 3.18. Im(A) = C(A) = F (At).

Teorema 3.19. Sea A de n×m. Entonces

A es 1-1 (inyectiva) si y solo si Ker(A) = {−→0 }.

A es sobreyectiva si y solo si Im(A) = Rn.

Teorema 3.20. Sea A de n×m. Entonces

Filas de A son L.D.↔ Existe una fila que es combinacion lineal del resto.↔ fn = α1f1 + . . .+ αn−1fn−1 (sin perder generalidad)↔ La FER de A tiene por lo menos una fila nula

(haciendo las operaciones del tipo III necesarias).

Filas de A son L.I.↔ La F.E.R. de A tiene no tiene filas nulas.↔ Todas las filas de la F.E.R. de A contienen pivotes.↔ Rango de A es n.

A es 1-1

↔ Ker(A) = {−→0 }.↔ Ax =

−→0 tiene solucion unica.

↔ Columnas de A son L.I.↔ Rango de A es m.

Page 19: APUNTES-mat1203

19

A es sobre↔ Im(A) = Rn.↔ Ax = b es consistente para todo b ∈ Rn.↔ Ax = ei es consistente para todo vector canonico.↔ La FER de [A e1 . . . en] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo.↔ Filas de A son L.I.↔ Rango de A es n.

Definicion 3.21. A de n×m tiene inversa por la derecha si existe una matrizB de m× n tal que AB = I.

Teorema 3.22. Sea A una matriz de n×m. Entonces

A tiene inversa por la derecha.↔ Existe B tal que AB = I.↔ Existen u1, . . . , un tal que A[u1 . . . un] = [e1 . . . en].↔ Ax = ei es consistente para todo vector canonico.↔ A es sobre.↔ Filas de A son L.I.↔ Rango de A es n.

Observacion 3.23. Para encontrar la inversa por la derecha de una matriz,hay que escalonar la matriz [AI] y resolviendo cada sistema se obtienen lascolumnas de la matriz B.

Definicion 3.24. A de n×m tiene inversa por la izquierda si At tiene inversapor la derecha.

Teorema 3.25. Sea A una matriz de n×m. Entonces

A tiene inversa por la izquierda.↔ Existe B tal que BA = I.

↔ Ax = 0 tiene solucion unica.↔ A es inyectiva.↔ Columnas de A son L.I.↔ Rango de A es m.

Observacion 3.26. Una matriz no cuadrada no puede tener inversa por laizquierda y derecha al mismo tiempo. Lo que no significa que siempre tenga

Page 20: APUNTES-mat1203

20 CAPITULO 3. MATRICES

al menos una inversa, por ejemplo la siguiente matriz no tiene inversa por laderecha ni por la izquierda. 1 0 0 0

0 1 0 00 0 0 0

Definicion 3.27. A de n×n es invertible o no singular si existe una matrizB de n× n tal que AB = I.

Observacion 3.28. Sea A de n × n. Si A tiene inversa por la derecha,entonces su rango es n, luego tiene inversa por la izquierda y es la misma quepor la derecha. Ademas es unica. La notacion para la inversa de A es A−1.

Proposicion 3.29. Sean A y B de n× n. Entonces

A es invertible si y solo si Ax = b tiene solucion unica para todo b ∈ Rn.

Si A es invertible, entonces (A−1)−1 = A.

A es invertible si y solo si At es invertible. En este caso (At)−1 = (A−1)t.

Si A es invertible y α = 0, entonces αA es invertible y (αA)−1 =1

αA−1.

Si A es invertible, entonces para todo r ∈ N, Ar es invertible y se tiene(Ar)−1 = (A−1)r = A−r.

SiA yB son invertibles, entoncesAB es invertible y (AB)−1 = B−1A−1.

Observacion 3.30. Sean A1, . . . , Ak matrices cuadradas e invertibles. En-tonces (A1 · . . . · Ak)

−1 = (Ak)−1 · . . . · (A1)

−1.

Proposicion 3.31. Sean A,B,C,D matrices tal que las siguientes opera-ciones estan bien definidas. Entonces

Si A es invertible y AB = AC, entonces B = C.

Si A es invertible y BA = CA, entonces B = C.

Si A es invertible y AB = BA, entonces BA−1 = A−1B.

Si A es invertible, puede ocurrir que A−1BA = B.

Page 21: APUNTES-mat1203

21

Si A y B son invertibles, y ACB = D, entonces C = A−1DB−1.

Observacion 3.32. Una matriz diagonal es invertible si y solo si todos loselementos de su diagonal son no nulos.

Observacion 3.33. Una matriz triangular superior (o inferior) es invertiblesi y solo si todos los elementos de su diagonal son no nulos.

Ejemplo 3.34. Productos notables.

Estudio de utu y uut.

Sea A,B de n× 1 tal que 1− AtB = 0. Demuestre que

(I − ABt)−1 = I +1

(1− AtB)ABt.

La triangularidad se mantiene en el producto y al tomar inversas.

Definicion 3.35. EI (EII , EIII) es una matriz elemental del tipo I (II, III),si es la matriz que resulta de hacer una operacion elemental del tipo I (II,III) a la matriz identidad. Se dice que la matriz E representa dicha operacionelemental.

Observacion 3.36.

tipo matriz operacion transpuesta operacion inversa operacion

I EI Fi ↔ Fj EI Fi ↔ Fj EI Fi ↔ Fj

II EII Fi → λFi EII Fi → λFi EII Fi → 1/λFi

III EIII Fi → Fi + αFj EIII Fj → Fj + αFi˜EIII Fi → Fi − αFj

Observacion 3.37. Si A es de n×m y B es la matriz de n×m que resultade hacerle a A una operacion elemental, entonces EA = B, donde E es lamatriz que representa dicha operacion elemental.

Proposicion 3.38. Si A es de n ×m y B = F.E. de A, entonces Ek · . . . ·E2 · E1A = B, donde Ei son las matrices elementales que representan lasoperaciones elementales que llevan la matriz A en la matriz B.

Page 22: APUNTES-mat1203

22 CAPITULO 3. MATRICES

Teorema 3.39. A de n × n es no singular si y solo si A se puede escribircomo producto de matrices elementales.

Teorema 3.40. A de n×n es no singular si y solo si F.E.R de A es la matrizidentidad

Teorema 3.41. Si A es de n×m y U es una forma escalonada de A, tal queU se obtiene sin necesidad de hacer operaciones del tipo I, entonces existe Ltriangular inferior invertible, tal que

A = LU

Teorema 3.42. Si A es de n × m y U es una forma escalonada de A, talque U se obtiene con la necesidad de hacer operaciones del tipo I, entoncesexiste L triangular inferior invertible y P una matriz producto de lementalesdel tipi I, tal que

PA = LU

Observacion 3.43. Si A = LU , para resolver Ax = b se hace el cambio devariable Ux = y.

Observacion 3.44. Si PA = LU , para resolver Ax = b se multiplica elsistema por P y luego se hace el cambio de variable Ux = y.

Definicion 3.45. Si A es de n × n la forma cuadratica asociada a A esqA : Rn → R, definida por

qA(v) = vtAv

Observacion 3.46. Si A es de n× n, se tiene que

qA = qAt = q(A+At

2

)

La matriz simetrica B =

(A+ At

2

), es la unica tal que

qA = qB

En adelante las matrices que definen a formas cuadraticas seran cuadradasy simetricas.

Definicion 3.47. Dada A de n × n, la submatriz principal Ak para k =1, . . . , n es la matriz que resulta de eliminar la ultimas n − k filas y lasultimas n− k columnas de A. Notar que An = A.

Page 23: APUNTES-mat1203

23

Proposicion 3.48. SiA es de n×n y sus submatrices principalesA1, · · · , An−1

son invertibles, entonces A admite la descomposicion LU . Si L tiene solo unosen su diagonal, entonces L y U son unicas.

Teorema 3.49. Sea A = At. Si A = LU , entonces existe D diagonal tal queA = LDLt. (Entonces el signo de A es igual al signo de D).

Definicion 3.50. Una matriz (o su forma cuadratica asociada) se dice:

positiva definida si ∀v = −→0 , qA(v) > 0.

negativa definida si ∀v = −→0 , qA(v) < 0.

semidefinida positiva si ∀v = −→0 , qA(v) ≥ 0.

semidefinida negativa si ∀v = −→0 , qA(v) ≤ 0.

Observacion 3.51. Si D es diagonal, con elementos d1, . . . , dn en su diago-nal, entonces D (o qD) es

positiva definida si di > 0, para todo i = 1, . . . , n.

negativa definida si di < 0, para todo i = 1, . . . , n.

semidefinida positiva si di ≥ 0, para todo i = 1, . . . , n.

semidefinida negativa si di ≤ 0, para todo i = 1, . . . , n.

Proposicion 3.52. Sea A = At. Si A es positiva definida, entonces

A es invertible.

Ak es positiva definida, para todo k = 1, . . . , n.

Ak es invertible, para todo k = 1, . . . , n.

Teorema 3.53. Sea A = At. A es positiva definida si y solo si existe Ltriangular inferior invertible con unos en su diagonal, y D diagonal, conelementos en la diagonal positivos, tal que A = LDLt.

Page 24: APUNTES-mat1203

24 CAPITULO 3. MATRICES

Observacion 3.54. En el teorema anterior se define a√D como la matriz

diagonal, que en su diagonal tiene las raıces positivas de los elementos de ladiagonal de D. Entonces

A = L√D√DLt = RtR

que es llamada la descomposicion con raız cuadrada de una matriz positivadefinida.

Ejemplo 3.55. Sea A =

[3 3 33 5 53 5 11

]. Entonces

A =

[1 0 01 1 01 1 1

] [3 3 30 2 20 0 6

]= LU

=

[1 0 01 1 01 1 1

] [3 0 00 2 00 0 6

] [1 1 10 1 10 0 1

]= LDLt

=

[1 0 01 1 01 1 1

] [ √3 0 0

0√2 0

0 0√6

] [ √3 0 0

0√2 0

0 0√6

] [1 1 10 1 10 0 1

]= L√D√DLt

=

[ √3 0 0√3√2 0√

3√2√6

] [ √3√3√3

0√2√2

0 0√6

]= RtR

Page 25: APUNTES-mat1203

Capıtulo 4

Determinantes

Definicion 4.1. Determinante es una funcion: Det : Mn(R)→ R tal que:

|I| = 1

Si EIA = B → −|A| = |B|

Si EIIA = B → λ|A| = |B|

Si EIIIA = B → |A| = |B|

Observacion 4.2. Tomando A = I en la definicion: |EI | = −1, |EII | = λ,|EIII | = 1. Reemplazando en la definicion queda que si E es una matrizelemental, entonces |EA| = |E| · |A|.

Observacion 4.3. Si A =

[a bc d

], entonces |A| = ad− bc

Proposicion 4.4. Sea A una matriz de cuadrada. Entonces

Si A tiene dos filas iguales, entonces |A| = 0.

Si A tiene una fila nula, entonces |A| = 0.

Si A es triangular o diagonal, entonces |A| = Πai,i.

Teorema 4.5. Sea A una matriz de cuadrada. Entonces A es invertible si ysolo si |A| = 0.

25

Page 26: APUNTES-mat1203

26 CAPITULO 4. DETERMINANTES

Teorema 4.6. Sean A y B matrices cuadradas. Entonces |AB| = |A| · |B|.(Usar: A y B son invertibles si y solo si AB es invertible.)

Proposicion 4.7. Sea A una matriz de cuadrada. Entonces

|At| = |A|

Si A es invertible, entonces |A−1| = 1/|A|

Proposicion 4.8. La funcion determinante es lineal en las filas y en lascolumnas.

Definicion 4.9. Menor i, j de una matriz A es el determinante de la matrizque resulta de eliminar de A la fila i y la columna j. Notacion: Mi,j =.Cofactor i, j de una matriz A es Ci,j = (−1)i+j Mi,j

Teorema 4.10. |A| = ai,1Ci,1 + . . . + ai,nCi,n para todo i = 1, . . . , n. (casoi = 1)

Proposicion 4.11. Sea A una matriz de cuadrada. Entonces

Si PA = LU , entonces (−1)k|A| = Πui,i

Si A = LDLt, entonces |A| = Πdi,i

Definicion 4.12. Sea A una matriz de cuadrada. La adjunta de A: Adj(A) =(ci,j)

t.

Teorema 4.13. Sea A una matriz de cuadrada. Entonces A · Adj(A) =Adj(A) · A = |A| I

Proposicion 4.14. Sea A una matriz de cuadrada. Si A es invertible, en-tonces A−1 = 1/|A| Adj(A)

Proposicion 4.15. Sea A una matriz simetrica. A es positiva definida si ysolo si, los determinantes de las submatrices principales son todos positivos.

Page 27: APUNTES-mat1203

Capıtulo 5

Espacios vectoriales

Definicion 5.1. Cuerpo o campoK,+, · conjunto tal que con las operacionessuma y multiplicacion cumple:

+ es cerrada: ∀α, β ∈ K α + β ∈ K

+ es asociativa: ∀α, β, γ ∈ K (α+ β) + γ = α+ (β + γ)

+ es conmutativa: ∀α, β ∈ K α+ β = β + α

Existe un neutro para la +: ∃0∀α : 0 + α = α+ 0 = α

Existe un inverso para la +: ∀α∃β : α+ β = β + α = 0

· es cerrada: ∀α, β ∈ K α · β ∈ K

· es asociativa: ∀α, β, γ ∈ K (α · β) · γ = α · (β · γ)

· es conmutativa: ∀α, β ∈ K α · β = β · α

Existe un neutro para la ·: ∃1∀α : 1 · α = α · 1 = α

Existe un inverso para la ·: ∀α = 0∃β : α · β = β · α = 1

∀α, β, γ ∈ K α · (β + γ) = α · β + α · γ

Ejemplo 5.2. Q,R,C,Zp

Definicion 5.3. Un conjunto no vacıo V es un espacio vectorial sobre elcuerpo K si existen dos operaciones: suma y multiplicacion por escalar talque:

27

Page 28: APUNTES-mat1203

28 CAPITULO 5. ESPACIOS VECTORIALES

+ es cerrada: ∀u, v ∈ V u+ v ∈ V

+ es asociativa: ∀u, v, w ∈ V (u+ v) + w = u+ (v + w)

+ es conmutativa: ∀u, v ∈ V u+ v = v + u

Existe un neutro para la +: ∃0V ∀u : 0V + u = u+ 0V = u

Existe un inverso para la +: ∀u∃(−u) : u+ (−u) = (−u) + u =−→0

· es cerrada: ∀u ∈ V, α ∈ K α · u ∈ V

∀u, v ∈ V, α ∈ K α · (u+ v) = α · u+ α · v

∀u ∈ V, α, β ∈ K (α+ β) · u = α · u+ β · u

∀u ∈ V, α, β ∈ K (αβ) · u = α · (βu)

∀u ∈ V 1 · u = u

A los elementos de V se les llama vectores.

Ejemplo 5.4. Algunos espacios vectoriales:

Rn sobre R.

Pn(R) sobre R.

Mn,m(R) sobre R.

C[a, b] sobre R.

Mn,m(Zp) sobre Zp.

Proposicion 5.5. Si V es un espacio vectorial sobre K, entonces

0V es unico.

−(u+ v) = (−u) + (−v).

−u es unico.

α · 0V = 0V .

0 · u = 0V .

Page 29: APUNTES-mat1203

29

α · u = 0V si y solo si α = 0 o u = 0V .

Definicion 5.6. Una combinacion lineal de vectores v1, . . . , vm es un vectorde la forma α1v1 + . . .+ αmvm.

Ejemplo 5.7. En C[0, π], 1 · sen2 +1 · cos2 = 1.

Definicion 5.8. Sea S = {v1, . . . , vm}.

S es linealmente independiente si la unica manera de construir al vectorcero es la trivial:

α1v1 + . . .+ αmvm =−→0 → α1 = . . . = αm = 0

S es linealmente dependinete si es posible construir al vector cero demanera no trivial:

∃α1, . . . αm no todos nulos, tal que α1v1 + . . .+ αmvm =−→0

Observacion 5.9. Sea S = {v1, . . . , vm}. Entonces

S es LI si y solo si todo subconjunto de S es LI.

S es LD si y solo si todo conjunto que contiene a S es LD.

Teorema 5.10. Sea S = {v1, . . . , vm}. S es LD si y solo si existe v ∈ S quees combinacion lineal del resto de los vectores de S.

Definicion 5.11. Sea S = {v1, . . . , vm}. El conjunto generado por S es< S >=< v1, . . . , vm >= {α1v1 + . . .+ αmvm, tal que α1, . . . , αm ∈ R}

Observacion 5.12. {0V } es L.D. y {0V } =< 0V >

Observacion 5.13. Sean S1 y S2 conjuntos de vectores de un espacio vec-torial V .

Si S1 ⊂ S2, entonces < S1 >⊂< S2 >

Si S1 ⊂< S2 >, entonces < S1 >⊂< S2 >

Proposicion 5.14. Sea S = {v1, . . . , vm}. vj es combinacion lineal de vec-tores de S ↔ < S >=< S − {vj} >

Page 30: APUNTES-mat1203

30 CAPITULO 5. ESPACIOS VECTORIALES

Proposicion 5.15. Sea S = {v1, . . . , vm}. Si S es LI y v ∈< S >, entoncesv se escribe de manera unica como combinacion lineal de los vectores de S.

Definicion 5.16. Sea V un espacio vectorial sobre K y U ⊆ V . U es unsubespacio de V si es distinto del vacıo y con las operaciones heredadas deV es un espacio vectorial. Notacion: U 6 V

Proposicion 5.17. U 6 V si y solo si U es no vacıo, es cerrado bajo la sumay es cerrado bajo la multiplicacion por escalar.

Observacion 5.18. Todo conjunto generado es un subespacio.

Teorema 5.19. Sean U1, U2 subespacios de V . Entonces

U1 ∩ U2 es subespacio de V .

U1 + U2 = {u1 + u2 : u1 ∈ U1, u2 ∈ U2} es subespacio de V . Si en

este caso, U1 ∩ U2 = {−→0 }, entonces se dice que la suma es directa y se

denota: U1 ⊕ U2.

Teorema 5.20. Si V =< v1, . . . , vn > tal que {v1, . . . , vn} es L.I., entoncestodo conjunto L.I. de V contiene a lo mas n elementos.

Definicion 5.21. B ⊂ V es una base de V si B es LI y < B >= V .

Teorema 5.22. Si B es una base de V y la cardinalidad de B es n, entoncestodas las bases de V tienen n elementos. Se dice que la dimension de V es n.Notacion: Dim(V ) = n.

Proposicion 5.23. Si Dim(V ) = n, entonces

S es LI → #S 6 n.

< S >= V → #S > n.

Proposicion 5.24. Si Dim(V ) = n y S = {v1, . . . , vn}, entonces

S es LI →< S >= V .

< S >= V → S es L.I.

Observacion 5.25. Si U es subespacio de V y Dim(V ) = n, entoncesDim(U) 6 Dim(V )

Page 31: APUNTES-mat1203

31

Teorema 5.26. Sean U1, U2 subespacios de V . Entonces

Dim(U1 + U2) = Dim(U1) + Dim(U2)−Dim(U1 ∩ U2)

Proposicion 5.27. Sea A de n×m. Entonces

C(A) es un subespacio de Rn de dimension igual al rango de A.

F (A) es un subespacio de Rm de dimension igual al rango de A.

At es de m× n, F (At) = C(A) y C(At) = F (A).

Definicion 5.28. Sea B = {v1, . . . , vn} una base de V y v ∈ V tal quev = x1v1 + . . . xnvn. El vector coordenado de x en la base B es:

[v]B =

x1

...xn

Proposicion 5.29. Sean u, v ∈ V y B una base de V . Entonces

[u+ v] = [u] + [v].

[αu] = α[u].

{u1, . . . , um} es L.I. si y solo si {[u1], . . . , [um]} es L.I.

u ∈< u1, . . . , um > si y solo si [u] ∈< [u1], . . . , [um] >.

Definicion 5.30. Sean B1 = {v1, . . . , vn} y B2 = {u1, . . . , un} bases de V .Se define la matriz P 1

2 = [ [v1]2 . . . [vn]2 ].

Proposicion 5.31. Sean B1 = {v1, . . . , vn} y B2 = {u1, . . . , un} bases de V .

Para todo x ∈ V : P 12 · [x]1 = [x]2.

P 12 es invertible.

(P 12 )

−1 = P 21

Page 32: APUNTES-mat1203

32 CAPITULO 5. ESPACIOS VECTORIALES

Page 33: APUNTES-mat1203

Capıtulo 6

Transformaciones lineales

Definicion 6.1. Sean V y W espacios vectoriales. T : V → W es unatransformacion lineal si T (v1 + v2) = T (v1) + T (v2) y T (αv) = αT (v).

Proposicion 6.2. Sean V y W espacios vectoriales y T : V → W unatransformacion lineal. Entonces

T (0V ) = 0W .

T (−v) = −T (v).

Observacion 6.3. Si B es una base de V , entonces T queda determinadapor como actua sobre la base.

Definicion 6.4. Sean V y W espacios vectoriales y T : V → W una trans-formacion lineal.

Ker(T ) = {v ∈ V : T (v) =−→0W} .

Im(T ) = {w ∈ W : ∃v ∈ V : T (v) = w} .

Proposicion 6.5. Sean V y W espacios vectoriales y T : V → W unatransformacion lineal.

Ker(T ) es un subespacio de V y su dimension es la nulidad de T .

Im(T es un subespacio de W y su dimension es el rango de T .

Observacion 6.6. Si B es una base de V , entonces < T (B) >= Im(T ).

33

Page 34: APUNTES-mat1203

34 CAPITULO 6. TRANSFORMACIONES LINEALES

Definicion 6.7. Sean V y W espacios vectoriales y T : V → W una trans-formacion lineal.

Si T es inyectiva se dice que es un monomorfismo.

Si T es sobre se dice que es un epimorfismo.

Si T es inyectiva y sobre se dice que es un isomorfismo y se denota porV ∼= W .

Teorema 6.8. Sean V y W espacios vectoriales y T : V → W una transfor-macion lineal.

T es inyectiva si y solo si Ker(T ) = {0V }.

T es sobre si y solo si Im(T ) = W .

Proposicion 6.9. Sean V y W espacios vectoriales y T : V → W unatransformacion lineal. Si T es inyectiva y S ⊂ V es L.I., entonces T (S) esL.I.

Definicion 6.10. Sean V y W espacios vectoriales, T : V → W una trans-formacion lineal, B1 = {v1, . . . , vm} una base de V y B2 = {w1, . . . , wn} unabase de W . La matriz de T con respecto a B1 y B2 es una matriz de n×mdada por

[T ]12 = [ [T (v1)]2 . . . [T (vm)]2 ]

Proposicion 6.11. Sean V y W espacios vectoriales, T : V → W unatransformacion lineal, B1 = {v1, . . . , vm} una base de V y B2 = {w1, . . . , wn}una base de W . Entonces

[T ]12 · [v]1 = [T (v)]2, para todo v ∈ V .

v ∈ Ker(T ) si y solo si [v]1 ∈ Ker[T ]12.

w ∈ Im(T ) si y solo si [w]2 ∈ Im[T ]12.

T es un isomorfismo (V ∼= W ) si y solo si [T ]12 es cuadrada e invertible.En este caso T−1 es una transformacion lineal y ([T ]12)

−1 = [T ]21.

Teorema 6.12. Sean V y W espacios vectoriales y T : V → W una trans-formacion lineal. Entonces

Dim Ker(T ) + Dim Im(T ) = Dim(V ).

Page 35: APUNTES-mat1203

35

Proposicion 6.13. Sea V espacio vectorial de dimension m y B1 y B3 basesde V . Sea W espacio vectorial de dimension n y B2 y B4 bases de W . Haydos matrices cambio de bases: P 1

3 y P 24 .

Sea T : V → W y las dos matrices asociadas a T : [T ]12 y [T ]34.

Sean x ∈ V, y ∈ W . Entonces

[x]3 = P 13 · [x]1.

[y]4 = P 24 · [y]2.

[T ]12 · [x]1 = [T (x)]2.

[T ]34 · [x]3 = [T (x)]4.

Reemplazndo:

[T ]34 · [x]3 = [T (x)]4.

[T ]34 · P 13 · [x]1 = P 2

4 · [T (x)]2.

[T ]34 · P 13 · [x]1 = P 2

4 · [T ]12 · [x]1.

Entonces [T ]34 · P 13 = P 2

4 · [T ]12

Esquema:

[T ]12V → WB1 B2

P 13 ↓ � ↓ P 2

4

V → WB3 B4

[T ]34

Ejemplo 6.14. Un ejemplo de la relacion entre matriz cambio de base ymatriz de una transformacion lineal es:

Page 36: APUNTES-mat1203

36 CAPITULO 6. TRANSFORMACIONES LINEALES

Sea V = M2(R) con las siguientes bases:

B1 =

{[1 00 0

],

[1 10 0

],

[0 01 0

],

[0 01 1

]}B3 =

{[1 00 0

],

[0 10 0

],

[0 01 0

],

[0 00 1

]}

La matriz cambio de base P 13 es P 1

3 =

1 1 0 00 1 0 00 0 1 10 0 0 1

Sea W = P2(R) con las siguientes bases:

B2 = {1, 1 + x, 1 + x2} B4 = {1, x, x2}

La matriz cambio de base P 24 es P 2

4 =

1 1 10 1 00 0 1

Sea T : M2(R)→ P2(R), dada por

T

([a bc d

])= (a+ b) + (b+ c)x+ (c+ d)x2

La matriz de T con respecto a las bases B1 en V y B2 en W es:

[T ]12 =

1 1 −2 −30 1 1 10 0 1 2

La matriz de T con respecto a las bases B3 en V y B4 en W es:

[T ]34 =

1 1 0 00 1 1 00 0 1 1

Sea A =

[1 23 4

]∈ V y entonces:

Page 37: APUNTES-mat1203

37

[A]1 =

−12−14

, [A]3 =

1234

Luego T (A) = 3 + 5x+ 7x2 ∈ W y entonces

[T (A)]2 =

−957

, [T (A)]4 =

357

Y se cumple [T ]12 · [A]1 = [T (A)]2 y [T ]34 · [A]3 = [T (A)]4

Proposicion 6.15. Sean T y L transformaciones lineales de V en W . En-tonces (T + L) : V → W dada por (T + L)(v) = T (v) + L(v) es una trans-formacion lineal, y (αT ) : V → W dada por (αT )(v) = αT (v) es una trans-formacion lineal. Ademas [T + L] = [T ] + [L] y [αT ] = α[T ].

Proposicion 6.16. Sean T : V → W y L : U → V transformacioneslineales. Entonces (T ◦ L) : U → W dada por (T ◦ L)(u) = T (L(u)) es unatransformacion lineal, y [T ◦ L] = [T ] · [L].

Page 38: APUNTES-mat1203

38 CAPITULO 6. TRANSFORMACIONES LINEALES

Page 39: APUNTES-mat1203

Capıtulo 7

Valores y vectores propios

Definicion 7.1. Sea A de n × n, v = 0 es un vector propio de A si existeλ ∈ R tal que Av = λv. Se dice que λ es el valor propio de A asociado a v.

Proposicion 7.2. Sea A de n×n. λ es valor propio de A si y solo si |A−λI| =0.

Definicion 7.3. Sea A de n×n. El polinomio caracterıstico de A es pA(x) =|xI − A|.

Proposicion 7.4. Sea A de n × n. λ es valor propio de A si y solo si λ esraız de pA(x). La multiplicidad algebraica de λ es la multiplicidad como raızde pA(x). (m.a.)

Observacion 7.5. Sea A de n×n. Si v1 y v2 son vectores propios asociadosal valor propio λ, y α ∈ R, entonces αv1 y v1 + v2 son vectores propiosasociados a λ.

Proposicion 7.6. Sea A de n × n y λ un valor propio de A. Eλ = {v ∈Rn : Av = λv} es el espacio propio asociado a λ. La dimension de Eλ es lamultiplicidad geometrica de λ.(m.g.). Eλ = Ker(A− λI).

Teorema 7.7. Sea A de n × n y λ un valor propio de A. Entonces la m.g.de λ es menor o igual a la m.a. de λ.

Proposicion 7.8. Sea A de n× n. Entonces

A tiene a lo mas n valores propios.

39

Page 40: APUNTES-mat1203

40 CAPITULO 7. VALORES Y VECTORES PROPIOS

Si A es diagonal, entonces los valores propios de A son los elementosde su diagonal.

Si A es triangular superior o inferior, entonces los valores propios de Ason los elementos de su diagonal.

A es no invertible si y solo si 0 es valor propio de A.

Si λ es valor propio de A, entonces λm es valor propio de Am, param ∈ N.

Si λ es valor propio de A y A es invertible, entonces λ−1 es valor propiode A−1.

Si λ1 y λ2 son dos valores propios distintos de A, entonces Eλ1 ∩Eλ2 ={0}.

Observacion 7.9. Considerando |xI − A| = cnxn + . . . + c1x + c0 = (x −

z1) . . . (x− zn) y tomando igualdad en los coeficientes c0 y cn−1 se tiene:

La traza de A es la suma de sus valores propios.

El determinante de A es el producto de sus valores propios.

Definicion 7.10. Dado un polinomio q(x) = a0 + a1x + . . . + amxm y A

matriz cuadrada, se define a q(A) como la matriz a0I + a1A+ . . .+ amAm.

Observacion 7.11. Dado un polinomio q(x) = a0 + a1x + . . . + amxm y D

matriz diagonal, se tiene que q(D) es la matriz diagonal cuya diagonal seforma con los elementos de la diagonal de D evaluados en q(x).

Teorema 7.12. Sea A matriz cuadrada. Entonces pA(A) es la matriz nula.

Definicion 7.13. Sea T : V → V una transformacion lineal. v = 0 es unvector propio de T si existe λ ∈ R tal que T (v) = λv. Se dice que λ es elvalor propio de T asociado a v.

Definicion 7.14. Dos matrices cuadradas A y B se dicen similares si existeuna matriz L invertible tal que L−1AL = B.

Proposicion 7.15. Si A y B son similares, entonces tienen los mismosvalores propios (tienen el mismo polinomio caracterıstico). Si L es tal queL−1AL = B y v es vector propio de B asociado a λ, entonces Lv es vectorpropio de A asociado a λ.

Page 41: APUNTES-mat1203

41

Definicion 7.16. Una matriz cuadrada A (o transformacion lineal T ) esdiagonalizable si y solo si es similar a una matriz diagonal.

Proposicion 7.17. Si A y B son similares, entonces A es diagonalizable siy solo si B es diagonalizable.

Teorema 7.18. A es diagonalizable si y solo si existen n vectores propiosL.I. de A.

Corolario 7.19. Si A tiene n valores propios distintos, entonces A es diag-onalizable.

Observacion 7.20. Si A es diagonalizable, entonces Am es diagonalizable,para todo m ∈ N.

Observacion 7.21. Si A es tal que Au = λu, entonces Aku = λku. Luego

lımk→∞

Aku =(lımk→∞

λk)u.

Observacion 7.22. Si Av = λv, entonces lımk→∞

Akv =

0 si |λ| < 1,

v si λ = 1,

no existe si |λ| > 1.

Observacion 7.23. Sea A es diagonalizable y q(x) un polinomio. Entonces

A = L

d1 0 . . . 00 d2 0

. . .

0 0 . . . dn

L−1 → q(A) = L

q(d1) 0 . . . 00 q(d2) 0

. . .

0 0 . . . q(dn)

L−1

A = L

d1 0 . . . 00 d2 0

. . .

0 0 . . . dn

L−1 → eA = L

ed1 0 . . . 00 ed2 0

. . .

0 0 . . . edn

L−1

Page 42: APUNTES-mat1203

42 CAPITULO 7. VALORES Y VECTORES PROPIOS

Page 43: APUNTES-mat1203

Capıtulo 8

Ortogonalidad

Definicion 8.1. Sea V un espacio vectorial sobre R. V se dice que es unespacio vectorial con producto interno si existe una funcion · de V × V en Rtal que para todo u, v ∈ V , y α ∈ R

u · v = v · u

u · (v + w) = u · v + u · w

(αu) · v = α(u · v)

u · u > 0 y u · u = 0 si y solo si u = 0.

Definicion 8.2. Sea V un espacio vectorial sobre R con producto interno.

Dados u, v ∈ V , u es ortogonal a v si u · v = 0. Notacion: u ⊥ v.

{u1, . . . , um} ⊂ V es ortogonal si el conjunto no contiene a 0 y ui ·uj = 0para todo i = j

{u1, . . . , um} ⊂ V es ortonormal si el conjunto es ortogonal y ui · ui =1, ∀i.

Observacion 8.3. En adelante se considera al espacio vectorial Rn sobre R,con el producto punto usual.

Observacion 8.4. u ⊥ 0, para todo u ∈ Rn.

43

Page 44: APUNTES-mat1203

44 CAPITULO 8. ORTOGONALIDAD

Observacion 8.5. Sea {u1, . . . , um} ortogonal y u = α1u1 + . . . + αmum,entonces

αi =u · ui

ui · ui

Observacion 8.6. Todo conjunto ortogonal es L.I., y por lo tanto una basede su conjunto generado.

Definicion 8.7. Dado U ≤ Rn, el ortogonal a U es U⊥ = {w ∈ Rn : u ·w =0}.

Proposicion 8.8. Sea Rn con el producto punto usual.

Si {u1, . . . , um} es una base de U , entonces U⊥ = {w ∈ Rn : ui · w =0 para i = 1, . . . ,m}.

0 ∈ U⊥

U⊥ es un subespacio de Rn.

{0}⊥ = Rn.

Rn⊥ = {0}.

U⊥⊥= U

U ∩ U⊥ = {0}.

Sea {u1, . . . , um} una base de U y A de n×m la matriz A = [u1 . . . um].Entonces U⊥ = Ker(At).

U ⊕ U⊥ = Rn. Dado v ∈ Rn, existen unicos u ∈ U y w ∈ U⊥ tal quev = u+ w.

Proposicion 8.9. Sea S = {u1, . . . , um} un conjunto de vectores en Rn y Ade n×m la matriz A = [u1 . . . um]. Entonces

S es LI si y solo si AtA es positiva definida.

S es ortogonal si y solo si AtA es diagonal y positiva definida.

S es ortonormal si y solo si AtA = I.

Page 45: APUNTES-mat1203

45

Definicion 8.10. Sea U subespacio de Rn y v ∈ Rn tal que u ∈ U y w ∈ U⊥

donde v = u+ w.

La proyeccion ortogonal sobre U es P : Rn → Rn, tal que P (v) = u.

La proyeccion ortogonal sobre U⊥ es Q : Rn → Rn, tal que Q(v) = w.

Proposicion 8.11. Sea U subespacio de Rn y v ∈ Rn tal que u ∈ U yw ∈ U⊥ donde v = u+ w.

Si {u1, . . . , um} es una base de U y A de n × m es la matriz A =[u1 . . . um], entonces u = Ax, donde x es tal que AtAx = Atv.

Si {w1, . . . , wr} es una base de U⊥ y B de n × r es la matriz B =[w1 . . . wr], entonces w = By, donde y es tal que BtBy = Btv.

Proposicion 8.12. Sea U subespacio de Rn, P la proyeccion ortogonal sobreU y Q la proyeccion ortogonal sobre U⊥. Entonces

P y Q son transformaciones lineales.

P +Q = I (como t.l.).

Ker(P ) = U⊥, Im(P ) = U .

Ker(Q) = U , Im(Q) = U⊥.

P 2 = P y Q2 = Q (como t.l.).

Si {u1, . . . , um} es una base de U y A de n × m es la matriz A =[u1 . . . um], entonces la matriz de P con respecto a la base canonica esP = A(AtA)−1At.

Si {w1, . . . , wr} es una base de U⊥ y B de n × r es la matriz B =[w1 . . . wr], entonces la matriz de Q con respecto a la base canonica esQ = B(BtB)−1Bt.

P y Q son simetricas.

P 2 = P y Q2 = Q (como matrices).

P +Q = I (como matrices).

2P − I = R es matriz de reflexion, es simetrica y R2 = I.

Page 46: APUNTES-mat1203

46 CAPITULO 8. ORTOGONALIDAD

P , Q y R son diagonalizables. Para P : E1 = U y E0 = U⊥. Para Q:E1 = U⊥ y E0 = U . Para R: E1 = U y E−1 = U⊥.

Proposicion 8.13. Gram Schmidt: Dado S = {v1, . . . , vm} L.I., una baseortogonal de < S > es {u1, . . . , um}, donde:

u1 = v1

u2 = v2 −v2 · u1

u1 · u1

u1

u3 = v3 −v3 · u1

u1 · u1

u1 −v3 · u2

u2 · u2

u2

. . ..

Observacion 8.14. Descomposicion QR.Sea A = [v1 · · · vm] una matriz con columnas L.I. El problema es encontraruna matriz cuyas columnas formen un conjunto ortonormal que genere lomismo que las columnas de A, es decir se busca una matriz Q tal que:

Q = [u1 · · ·um], Im(Q) = Im(A) y QtQ = I.

Sea R la matriz cambio de base de m×m, es decir A = QR. Entonces

AtA = (QR)tQR = RtQtQR = RtIR = RtR.

Dado que A es inyectiva, luego AtA es positiva definida y basta tomar sudescomposicion con raız cuadrada R. Obteniendo R se calcula Q = AR−1.

Ejemplo 8.15. Sea U =<

1011

,

1020

,

−1031

>. Determine una base

ortonormal de U .

Solucion:

Sea A =

1 1 −10 0 01 2 31 0 1

. Entonces

Page 47: APUNTES-mat1203

47

AtA =

[3 3 33 5 53 5 11

]

=

[ √3 0 0√3√2 0√

3√2√6

] [ √3√3√3

0√2√2

0 0√6

]= RtR

Luego R−1 =

[1/√3 −1/

√2 0

0 1/√2 −1/

√6

0 0 1/√6

].

Entonces Q =

1√3 0 −2

√6

0 0 0

1√3 1

√2 1

√6

1√3 −1

√2 1

√6

.

Entonces U =<

1√30

1√3

1√3

,

00

1√2

−1√2

,

−2√60

1√6

1√6

>

Proposicion 8.16. Sea el sistema Ax = b inconsistente y x∗ tal que ∥Ax∗−b∥es mınima. Entonces x∗ es tal que Ax∗ es la proyeccion de b sobre Im(A).

Page 48: APUNTES-mat1203

48 CAPITULO 8. ORTOGONALIDAD

Page 49: APUNTES-mat1203

Capıtulo 9

Matrices Simetricas

Definicion 9.1. U de n× n es ortogonal si U tU = I.

Teorema 9.2. Sea P de n × n. Entonces las siguientes proposiciones sonequivalentes:

U es ortogonal.

∥Ux∥ = ∥x∥, para todo x ∈ Rn.

Ux · Uy = x · y, para todo x, y ∈ Rn.

Si {v1, . . . , vm} es ortonormal, entonces {Uv1, . . . , Uvm} es ortonormal.

Proposicion 9.3. Sea A simetrica. Entonces

A tiene solo valores propios reales.

Si λ1 y λ2 son dos valores propios distintos de A tal que v1 ∈ Eλ1 yv2 ∈ Eλ2 , entonces v1 · v2 = 0.

Definicion 9.4. Una matriz A se dice ortogonalmente diagonalizable si ex-iste U ortogonal y D diagonal, tal que U tAU = D.

Teorema 9.5. A es simetrica si y solo si A es ortogonalmente diagonalizable.

Corolario 9.6. A simetrica es positiva definida si y solo si todos sus valorespropios son positivos.

49

Page 50: APUNTES-mat1203

50 CAPITULO 9. MATRICES SIMETRICAS

Definicion 9.7. Si A es simetrica y v1, . . . , vn son vectores propios (ortonor-males) asociados a los valores propios λ1, . . . , λn, entonces la descomposicionespectral de A es:

A = λ1v1vt1 + . . .+ λnvnv

tn.

Observacion 9.8. Si A es de n×m, se tiene que

1. Ker(AtA) = Ker(A).

2. Im(AtA) = Im(At).

Teorema 9.9. Sea A de n×m. Entonces existen U de m×m y V de n× nmatrices ortogonales tal que

V tAU =

s1 0

. . .

0 sr0

n×m

Observacion 9.10. ¿Como obtener U?

La matriz AtA es simetrica y semi definida positiva. Entonces existe U dem×m matriz ortogonal tal que

U tAtAU =

d1. . .

dr0

. . .

0

n×m

con d1 ≥ d2 ≥ · · · ≥ dr > 0.

Sea U1 matriz de m× r que contiene vectores propios de valores propios nonulos y U2 matriz de m× (m− r) que contiene los vectores propios del valorpropio 0. Entonces se tiene que:

U = [U1 U2].

Los vectores columna de U1 forman una base de Im(AtA) = Im(At).

Los vectores columna de U2 forman una base de Ker(AtA) = Ker(A).

Page 51: APUNTES-mat1203

51

(AU1)t(AU1) = D =

d1. . .

dr

n×m

Observacion 9.11. ¿Como obtener V ?

Sea V1 de n× r la matriz V1 = AU1

√D

−1.

Sea V2 de n×(n−r) la matriz cuyas columnas completan una base ortogonalcon las columnas de V1.

Entonces se considera V = [V1 V2].