Algebra Lineal
Click here to load reader
-
Upload
fernando-antonio -
Category
Career
-
view
1.652 -
download
4
Transcript of Algebra Lineal
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 1 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
Álgebra para ingenieros de la Universidad Alfonso X
1-Matrices y sistemas de ecuaciones lineales
Operaciones con matrices:
A=
mnmm
n
n
aaa
aaa
aaa
LMMMM
L
L
21
22221
11211
B=
pqpp
q
q
bbb
bbb
bbb
L
MMMML
L
21
22221
11211
Suma: - Las matrices a sumar tienen que tener la misma dimensión (m=p, n=q).
A+B =
+++
+++
+++
mnmnmmmm
nn
nn
bababa
bababa
bababa
LMMMM
L
L
2211
2222222121
1112121111
Producto por un número (λ):
λA=Aλ=
mnmm
n
n
aaa
aaa
aaa
λλλ
λλλ
λλλ
LMMMM
L
L
21
22221
11211
Producto de matrices:
- El producto de matrices no es conmutativo (en ocasiones AB≠BA). - Si multiplicamos AB, A tiene que tener la misma cantidad de columnas que B de filas
(n=p). - La matriz resultante de la multiplicación tiene la misma cantidad de filas que A y de
columnas que B (dimensión de AB es igual a m×q).
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 2 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
AB=
+++++++++
+++++++++
+++++++++
nqmnqmqmnmnmmnmnmm
nqnqqnnnn
nqnqqnnnn
bababababababababa
bababababababababa
bababababababababa
LLLL
MMMMLLLL
LLLL
221122221211212111
222212122222212211221221121
121211121221212111121121111
Traza de una matriz: -La matriz a la que se halla la traza tiene que ser cuadrada (n=m). -La traza es la suma de los elementos de la diagonal. traza(A)= nnaaa L2211 + Transposición de matrices: -La transposición es el simple cambio de filas por columnas.
TA =
nnnn
n
n
aaa
aaa
aaa
LMMMM
L
L
21
22212
12111
Tipos de matrices Matriz fila: matriz con una sola columna (m×1). Matriz columna: matriz con una sola fila (1×n): Matriz cuadrada: matriz con la misma cantidad de filas que de columnas (n=m). Matriz rectangular: matriz con un número diferente de filas que de columnas (n≠m). Matriz nula: Matriz en la que todos sus elementos son ceros. Matriz triangular superior (inferior): matriz cuadrada en la cual todos los elementos que están por debajo (arriba) de la diagonal son ceros. Matriz diagonal: matriz cuadrada en la cual son nulos los elementos por debajo y por arriba de la diagonal. Matriz regular: matriz que se puede invertir. Matriz identidad: matriz diagonal en la que los elementos de la diagonal son unos. Matriz simétrica: matriz que es igual a su transpuesta (A= TA ).
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 3 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
Matriz antisimétrica: A=- TA . Matriz ortogonal: 1−= AAT . Matriz idempotente: 2 .=A A Matriz nilpotente: si existe un n tal que OA =n (O matriz nula). Propiedades de los distintos tipos de matrices
- ( ) TTT BABA +=+
- ( ) TTT ABAB =
- 111 AB(AB) −−− = - IA=AI=A (I es la matriz identidad) - OA=AO=O (O es la matriz nula)
Determinantes - El determinante solo se le halla a una matriz cuadrada. Determinantes de matrices de dimensión 2:
A=
dcba
,|A|= cbaddcba
−=
Determinantes de matrices de dimensión 3:
A=
333
222
111
cbacba
cba
,|A|= )( 231312123132213321 cbacbacbacbacbacba ++−++
Determinantes de orden mayor que tres:
Menor correspondiente al elemento ai j ,M i j: es el determinate formado al eliminar la fila i y la columna j. Adjunto al elemento aij : (-1)i+jMij . Determinante: cogemos cada elemento de una fila o columnas lo multiplicamos por su adjunto y lo sumamos.
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 4 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
Propiedades de los determinantes:
• |AT |=|A| • |AB|=|BA| • |A-1|=1/|A| • |A|=-|B|, siendo B la matriz formada al intercambiar dos filas o columnas • |A|=0, si A tiene dos filas o columnas iguales, proporcionales o que una dependa
linealmente de las otras. • |B|=k|A|, si todos los elementos de B son iguales a los de A menos una fila o columna
que se a multiplicado por k. Matriz inversa
- La matriz 1−A es la matriz inversa de A si -1 -1AA = A A = I
- La matriz A tiene inversa si y sólo si su determinante es distinto de cero.
Matrices semejantes - Dos matrices A y B cuadradas de orden n son semejantes si existe una matriz P regular tal que -1B=PAP . Calculo de la matriz inversa
- t
-1 (adjA)A =
| A |, donde la matriz adjA es la matriz formada por los elementos adjuntos
de A. - Otra manera de calcular la inversa de A es utilizando el método de Gauss- Jordan
Sistemas de ecuaciones lineales Se denomina sistema de ecuaciones lineales de m ecuaciones con n incógnitas a:
11 1 12 1 1 1 1
21 1 22 1 2 1 2
1 1 2 1 1
......
.............................................
n
n
m m mn m
a x a x a x ba x a x a x b
a x a x a x b
+ + + =+ + + =
+ + + =
Forma matricial Ax=b, donde
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 5 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
A=
11 12 1
21 22 2
1 2
....
........ ....
....
n
n
m m mn
a a a
a a a
a a a
M M, x=
1
2
n
x
x
x
M, b=
1
2
m
b
b
b
M
Clasificación de los sistemas
- Sistema compatible determinado: son los que tienen solución y es única. - Sistema compatible indeterminado: son los que tienen infinitas soluciones. - Sistema incompatible: son los que no tienen ninguna solución.
Rango de una matriz: orden del mayor determinante no nulo que se puede formar apartir de la matriz. Teorema de Rouché-Frobenius
Sea la matriz ampliada A% =
11 12 1 1
21 22 2 2
1 2
....
........ ....
....
n
n
m m mn m
a a a ba a a b
a a a b
M M M
- Si rang A ≠ rang A% entonces el sistema es incompatible. - Si rang A = rang A% =n entonces el sistema es compatible determinado. - Si rang A = rang A% < n entonces el sistema es compatible indeterminado.
Resolución de sistemas de ecuaciones - Sistema de Cramer (compatible determinado) -1x = A b .
- Regla de Cramer
11 1 1 1 1 1 1
21 2 1 2 2 1 2
1 1 1
... ...
... ...
... ...
... ...| |
i i n
i i n
n ni n ni nni
a a b a aa a b a a
a a b a ax
− +
− +
− +
=
A
M M M M M
- Otro método es el de eliminación de Gauss-Jordan.
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 6 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
2-Espacios vectoriales
Definición Diremos que un conjunto V es un espacio vectorial sobre un cuerpo K si hay definidas dos operaciones: 1- una ley interna, V×V→V, (x , y) →x+y, que denominamos suma de vectores 2- una ley externa K ×V→V, (α ,y) →αy, que denominamos producto por un escalar de manera que verifican las siguientes propiedades: 1- x+y=y+x (conmutativa) 2- (x+y)+z=x+(y+z) (asociativa) 3- / ,∃ ∈ + = ∀ ∈0 V x 0 x x V (elemento neutro) 4- , /∀ ∈ ∃ ∈x V - x V x + ( - x ) = 0 (elemento opuesto) 5- (α+β)x=αx+βx 6- α (x+y)= αx+αy 7- (αβ)x=α(β x) 8- 1 x = x
, ,α β∀ ∈ ∈x,y V¡ Combinación lineal: Sea Vx,...,x,x n21 ∈}{ y K∈}a,...,a,a{ n21 se dice que la operación
nnxxx ααα +++ ...2211 forma una combinación lineal de dichos vectores. Dependencia lineal: Se dice que Vx,...,x,x n21 ∈}{ es un conjunto linealmente dependiente si ∃ K∈}a,...,a,a{ n21 con al menos 0≠iα , en el que nnxxx ααα +++ ...2211 =0. Independencia lineal: Se dice que Vx,...,x,x n21 ∈}{ es un conjunto linealmente dependiente de V si al ser nnxxx ααα +++ ...2211 =0 es necesario que 0a...aa n21 ==== . Sistema generador: Se dice que Vx,...,x,x n21 ∈}{ , forma un sistema generador de V si
Vx∈∀ , ∃ K∈}a,...,a,a{ n21 /x = nnxxx ααα +++ ...2211 . Base de un sistema generador: Se dice que B = }{ n21 x,...,x,x forma una base de V si se cumple, que es un sistema generador de V y un conjunto linealmente independiente. Coordenadas de un vector en una base dada: Sea B = }{ n21 x,...,x,x una base de V, y sea
Vx∈ ; se dice que nK∈)a,...,a,a( n21 son las coordenadas de x en la base B si se cumple: x = nnxxx ααα +++ ...2211 . Cambio de base: Sean B = }{ n21 x,...,x,x y B1 = }{ n21 y,...,y,y dos bases de un espacio vectorial V. Se dice ecuaciones del cambio de base a las que surgen de hacer
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 7 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
nnxxx ααα +++ ...2211 = nn yyy 12
121
11 ... ααα +++ siendo )a,...,a,a( n21 y
)a,...,a,a( n1
21
11 las coordenadas de x en las bases B y B1 respectivamente.
Dimensión de V: numero de vectores que forman una base V. Subespacio vectorial: Sea S un subconjunto de vectores de V, se dice que forma un subespacio vectorial de V si en él se verifican: Syx, ∈∀ y Syx ∈+ βα (el elemento neutro siempre tiene que pertenecer a S). Operaciones entre subespacio: Sean S1 y S2 dos subespacio de V, se dice:
- Suma. S1 + S2= S1 ∪ S2, es un subespacio de V, donde una base de S1 + S2 esta formada por una cantidad maximal de vectores linealmente independiente del conjunto de vectores formado al unir una base de cada uno de los subespacio.
- Intersección. S1 ∩ S2, es un subespacio de V en el que si ∈x S1 ∩ S2 entonces ∈x S1
y ∈x S2. - Suma directa. S1 ⊕ S2, se dice si dim(S1 ∩S2)=0 - dim(S1 + S2)+dim(S1 ∩ S2)=dim(S1)+dim(S2).
3-Espacios vectoriales euclídeos
Producto interior: a cada par de vectores se le asigna un número real <u,v> que satisface: 1- 1 2 1 2, , ,a b a b< + >= < > + < >u u v u v u v (linealidad) 2- <u,v>=<v,u>(simetría) 3- <u,v>≥0, <u,u>=0⇔u=0 (definida positiva) Espacio euclideo: todo espacio vectorial en el que se le defina un producto escalar. Longitud de un vector u: ||u||= ,< >u u . Desigualdad de Cauchy – Schawarz: || || || ||< > ≤ ⋅u,v u v .
Relación trigonométrica: cos( )|| || || ||
θ< >
=⋅
u,vu v
, donde θ es el ángulo entre los vectores.
Ortogonalidad: dos vectores son ortogonales si su producto interno es igual a cero. Complemento ortogonal: sea S un conjunto del espacio vectorial V, definimos complemento ortogonal de S a:
{ }: 0⊥ = ∈ < >= ∀ ∈S v V u,v u S , ⊥S es un subespacio vectorial de V.
-Si S es un subespacio de V,V =S⊕ ⊥S . Conjuntos ortogonal: un conjunto es ortogonal si todos los elementos son ortogonales entre si. Conjuntos ortonormal: un conjunto es ortonormal si todos los elementos son ortogonales entre si y la longitud de cada uno de ellos es uno.
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 8 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
-Todo conjunto ortogonal es linealmente independiente.
Proyección: la proyección del vector V en W es cW donde 2|||| W
WV, ><=c (c es llamado
coeficiente de Fourier). Proceso de ortonalización (Gram-Schmidt): Sea el conjunto de vectores {V1,V2,...,Vn} que queremos ortogonalizar, el proceso de ortogonalización es el siguiente:
121
112
1
222
2312
1
333
121
22
11
||||...
||||
................................................................||||||||
||||
−−
− ><−−
><−=
><−
><−=
><−=
=
nn
nnnnn W
WW,V
WW
W,VVW
WW
W,VW
WW,V
VW
WW
W,VVW
VW
1
1
12
Representación del producto interno en una base {V1,V2,....Vn}:
><><><
><><><><><><
nnnn
n
n
VVVVVV
VVVVVVVVVVVV
,...,,...
,...,,,...,,
21
22212
12111
MMM
4-Aplicaciones lineales Aplicación lineal: sean V y W dos espacios vectoriales, decimos que la aplicación
:f →V W ,∀ ∈ ∃ ∈x V y W tal que ( )f=y x es lineal si ( ) ( ) ( )( ) ( )
f f ff fα α
+ = +=
x y x yx x
-A toda aplicación lineal se le puede asociar una matriz y esta depende de las bases a escoger en los espacios V y W. Endomorfismo: W=V. Núcleo: se dice núcleo o Ker de f a: Ker(f)={ : ( ) 0f∈ =x V x }.
Imagen: se dice que imagen de f :Im(f){ }: / ( )f∈ ∃ ∈ =y W x V x y . -dim(Ker(f))+dim(Im(f))=dim(V). Inyectiva: Ker(f)=0.(f es un monomorfismo) Sobreyectiva: Im(f)=W . ( f es epimorfismo)
Carrera: UAX Asignatura: Matemáticas
Fecha: Página 9 de 9
DELTA-MASTER c/ General Ampudia 16, 28003 MADRID ( 915351932 915333842
Biyectiva: aplicación inyectiva y sobreyectiva. (f es un isomorfismo)
5-Diagonalización
Autovector: Sea :f →V V un endomorfismo, se dice que x es un autovector de f si se cumple f(x)=λx. Autovalor: es el valor λ de la definición de autovector. Calculo de Autovalores y autovectores Autovalores: son las soluciones del polinomio det(A-λI)=0 (polinomio característico), siendo A una matriz asociada a la aplicación lineal f. Autovectores: son los vectores que conforman las bases de cada subespacio (subespacio propio) formado por las soluciones de los sistemas (A- iλ I)x=0, i=1..r, donde iλ son los autovalores y r es la número de valores propios distintos. - Una aplicación es diagonalizable si la multiplicidad de sus autovalores es igual a la dimensión del subespacio propio. Matriz diagonal asociada a la aplicación f, D: es la matriz diagonal en la cual su diagonal está formada por los autovalores de f. Además D= 1−P AP, donde P es una matriz cuyas columnas están formada por los autovectores. Propiedades: - A y ⊥A tienen los mismos autovalores. - Si λ es autovalor de A, kλ es autovalor de kA (los autovectores son los mismos). - Si λ es autovalor de A, 1λ − es autovalor de 1−A (los autovectores son los mismos). - Si λ es autovalor de A, nλ es autovalor de nA (los autovectores son los mismos). - Si λ es autovalor de A, Ker(f)≠0. - Si p(x) es el polinomio característico de A entonces p(A)=0, Teorema de Cyley-
Hamilton. - Si A es simétrica es siempre diagonalizable y sus autovectores forman un conjunto
ortogonal.