resumen diagonalizacion matrices

5

Click here to load reader

Transcript of resumen diagonalizacion matrices

Page 1: resumen diagonalizacion matrices

1

ETSII-UPM

Propiedades de losValores y Vectores Propios

Matemáticas de la Especialidad (Mecánica-Máquinas)Madrid, 5 de noviembre de 2002

Javier García de JalónETSII - Departamento de Matemática Aplicada

a la Ingeniería Industrial

ETSII-UPM

Problema de valores y vectores propiosDefinición del problema de valores y vectores propios (matriz n×n)

que también se puede expresar en la forma

Para que exista una solución x distinta de la trivial (x=0), el valor propio λ deberá ser raíz del siguiente polinomio de grado n

Características del problema de valores y vectores propios:Es un problema no lineal en los valores propios λ y lineal en xLos vectores propios pertenecen al subespacio nulo de (Ax-λI) y no están unívocamente determinados: Si x es un vector propio, (α⋅x) también lo esSiempre existen n valores propios, que pueden ser reales o complejosNo siempre existen n vectores propios. Los valores propios de multiplicidad m>1 tienen un subespacio propio asociado de dimensión <=m. Todos los vectores en este subespacio propio son vectores propios

λ=Ax x

( )λ− =A I x 0

det( ) 0λ− =A I

ETSII-UPM

Interpretación geométricaPor lo general, el vector Ax no tiene la misma dirección que x.Los vectores propios son vectores que se transforman sin cambiar de dirección. El valor propio λ determina el cambio de longitud.

2x2 2 2λ=Ax x

1 1 1λ=Ax x

1x

xAx

ETSII-UPM

Propiedades de los subespacios propiosLos vectores propios asociados con un mismo valor propio λ forman un subespacio vectorial de Rn

Si x1 y x2 son vectores propios asociados a un mismo valor propio λ,

lo que demuestra que una combinación lineal de vectores propios asociados con un mismo valor propio es también vector propio.

Los subespacios propios correspondientes a valores propios distintos sólo tienen en común el vector nulo

Supóngase que x∈V1 y al mismo tiempo x∈V2

Consecuencia: Los vectores propios correspondientes a valores propios distintos son linealmente independientes.

( ) ( )α β α β λ α β+ = + = +1 2 1 2 1 2A x x Ax Ax x x

11 2

2

( ) λ

λ λλ

= = − ⇒ ==

Ax x0 x x 0

Ax x

ETSII-UPM

Propiedades de los valores propiosIgualando coeficientes en las distintas expresiones del determinante det(A−λI)=0 se deducen las propiedades siguientes:

La suma de los valores propios es igual a la traza de la matrizEl producto de los valores propios es igual al determinante de la matriz

Propiedad de “desplazamiento” de los valores propios:Si los valores propios de la matriz A son λi, los valores propios de la matriz (A−αI) serán (λi−α). Los vectores propios xi de la matriz A siguen siendo los vectores propios de la matriz (A−αI):

Diagonalización: si existen n vectores propios independientes que forman las columnas de la matriz S:

( ) ( ) ( )

11 12 1

12 22 21 2

1 2

det( )

n

nn

n n nn

a a aa a a

a a a

λλ

λ λ λ λ λ λ λ

λ

− − − = = − − − −

A I

( ) ( ); restando i i i i i i iλ α α λ α= ⇒ − = −Ax x x A I x x

1 1; y i i iλ − −= ⇒Ax x AS = SΛ S AS = Λ A = SΛS

ETSII-UPM

Propiedades de los valores propios (2)Los valores propios de una matriz diagonal o triangular son los elementos de la diagonal.Para que una matriz sea:

Diagonalizable, debe tener n vectores propios independientes.Invertible, debe tener n valores propios distintos de cero.

Valores y vectores propios de las potencias de una matriz:Los vectores propios son los mismos; los valores propios son lascorrespondientes potencias:

Análogamente, para las potencias negativas:

2 2; ; ... n nλ λ λ λ= = = =Ax x A x Ax x A x x

1 1 1 1; ; λ λ λ− − − −= = =Ax x A Ax A x A x x

1 1 1 2 1 2 2; ; − − − −= = =S AS Λ S ASS AS Λ S A S Λ

Page 2: resumen diagonalizacion matrices

2

ETSII-UPM

Matrices semejantesDos matrices A y B son “semejantes” si existe una matriz no singular M tal que:

Las matrices semejantes tienen los mismos valores propios:Partiendo de la definición de valor propio de A

Multiplicando por la inversa de la matriz M

luego λ es un valor propio de B asociado con el vector propio M-1x

Dos matrices semejantes A y B tienen el mismo polinomio característico:

1−=B M AM

1 λ−= =Ax MBM x x

1 1 1( ) ( )λ λ− − −= =B M x M x M x

1 1

1 1

det( ) det( )det( ( ) ) det det( )det det( )

λ λ

λ λ λ

− −

− −

− = − =

= − = − = −

B I M AM M MM A I M M A I M A I

ETSII-UPM

Matrices simétricasLos valores propios de una matriz real y simétrica son reales

Si A es simétrica, el producto es real, pues es igual a su conjugado

de donde se deduce que el valor propio λ debe ser real

Los vectores propios correspondientes a valores propios distintos son ortogonales

A partir de las ecuaciones de dos valores propios distintos

Como por hipótesis los dos valores propios son distintos

2

2; T Tλ λ λ= = =Ax x x Ax x x x

( ) ( ) 2

2

TT T T T T Tconj λ= = = = =x Ax x Ax x Ax x A x x Ax x

( )1 1 1 2 1 1 2 11 2 2 1

2 2 2 1 2 2 1 2

0T T

TT T

λ λλ λ

λ λ= =

⇒ ⇒ − = = =

Ax x x Ax x xx x

Ax x x Ax x x

2 1 0T =x x

Tx Ax

ETSII-UPM

Matrices simétricas (2)Se verá un poco más adelante que un valor propio de multiplicidad mtiene m vectores propios asociados, pues las matrices simétricas son matrices normales, esto es matrices que cumplen la condición:

Por tanto, para una matriz simétrica siempre existen n vectores propios linealmente independientes y ortogonales entre sí

Si las columnas de la matriz S son los vectores propios ortogonales y normalizados, y los valores propios se disponen en la diagonal de la matriz Λ

Estas fórmulas expresan la diagonalización de A mediante una transformación de semejanza, y también la descomposición espectral de A

Para matrices simétricas los espacios propios asociados con valores propios de multiplicidad m tienen también dimensión m, y se pueden encontrar en ellos mvectores propios que satisfagan las condiciones de ortonormalidad. Puede utilizarse para ello el método de Gram-Schmidt

1 1 1; ; ; T− − −= = = =AS SΛ S AS Λ A SΛS S S

1;

nT T

i i ii

λ=

= = ∑A SΛS A x x

T T=NN N N

ETSII-UPM

Matrices hermíticasPueden verse como una generalización de las matrices simétricasEl módulo de un complejo se calcula multiplicando por el conjugado

El producto escalar de vectores complejos se define como

El operador hermítico H produce el traspuesto-conjugado de un vector o de una matriz

Matrices hermíticas son las matrices que satisfacen AH=ASi la matriz A es hermítica el producto xHAx es real. El operador H aplicado a un escalar produce su conjugado, que sólo es igual al escalar si éste es real

Como consecuencia, los valores propios de una matriz hermítica son reales

( )22 T T Tix≠ = =∑x y y x x x x

2aa a=

; ; ( )H T H T H H H≡ ≡ =x x A A AB B A

( )HH H H HH H= =x Ax x A x x Ax

2; H Hλ λ λ= = =Ax x x Ax x x x

Tx y

ETSII-UPM

Matrices hermíticas (2)En una matriz hermítica los vectores propios correspondientes a dos valores propios distintos son ortogonales entre sí

Como los valores propios λ1 y λ2 son distintos, se concluye que

Si los vectores propios se normalizan (xHx=1), la matriz de vectores propios S se convierte en una matriz ortogonal Q (QHQ=I)

( )1 1 1 2 1 1 2 11 2 2 1

2 2 2 2 1 2 2 1

0H H

HH H H

λ λλ λ

λ λ= =

− = = =

Ax x x Ax x xx x

Ax x x A x x x

H

H

=

=

Q AQ ΛA QΛQ

2 1 0H =x x

ETSII-UPM

Matrices unitariasLas matrices unitarias son una extensión de las matrices ortogonales para el campo complejo.Matriz unitaria es una matriz compleja con columnas ortonormales:

Propiedades de las matrices unitarias:No modifican ni los ángulos ni las distancias:

Todos los valores propios tienen módulo unidad:

Los vectores propios correspondientes a valores propios distintos son ortogonales:

1 H H H−= = ⇒ =U U UU I U U

( ) ( )H H H H= =Ux Uy x U Uy x y 2 2 , si = =y x Ux x

; 1λ λ λ= = ⇒ =Ux x Ux x

( )1 1 1 2 1 1 2 11 2 2 1 2 1

2 2 2 2 1 2 2 1

0 0H H

H HH H H

λ λλ λ

λ λ = =

⇒ − = ⇒ = = =

Ux x x Ux x xx x x x

Ux x x U x x x

Page 3: resumen diagonalizacion matrices

3

ETSII-UPM

Lema de SchurPara cualquier matriz cuadrada A existe una matriz unitaria U tal que T=UHAU es triangular superior

Para cualquier matriz n×n siempre es posible encontrar un vector propio x1asociado con un valor propio λ1 (aunque λ1 sea un valor propio múltiple su subespacio propio asociado tendrá al menos un vector propio). Construyendo una matriz unitaria U1 cuya primera columna es x1 y eligiendo las demás columnas de modo que sean ortogonales, se verificará, para un caso 4×4

A su vez la matriz B2 es una matriz (n−1) ×(n−1) que tendrá al menos un vector propio asociado con el valor propio λ2. Existirá una matriz unitaria U2cuya segunda columna será dicho vector propio y que cumplirá

Finalmente se llega a

1 1 1

1 1 1 12

* * * * * * * * *0 * * * 0 * * * 0

0 * * * 0 * * * 00 * * * 0 * * * 0

H

λ λ λ = = =

AU U U AUB

1

1 22 2 1 1 2

2

3

1 0 0 0 * * *0 * * 0 * *

0 * * 0 0 * *0 * * 0 0 * *

H Hyyy

λλ

= =

U U U AU U

3 2 1 1 2 3H H H =U U U AU U U T

ETSII-UPM

Matrices definidas-positivasUna matriz simétrica es definida-positiva si cumple

Se puede demostrar que la condición (1) es equivalente a cualquiera de las condiciones siguientes:

Todos los valores propios de A son positivos.

El determinante de todas las submatrices sobre la diagonal de A es positivo.

Todos los pivots en la descomposición A=LDLH son positivos.

La matriz A se puede descomponer en la forma A=RHR, donde R es una matriz cuyas n columnas son independientes.

Existen matrices semi-definidas positivas (xHAx≥0) e indefinidas

1) 0, H > ∀ ≠x Ax x 0

2) 0, i iλ > ∀

3) det( ) 0, k k> ∀A

4) 0, iid i> ∀

5) HA = R R

ETSII-UPM

Matrices normalesLa condición necesaria y suficiente para que una matriz N tenga nvectores propios independientes y pueda ser diagonalizada por una transformación de semejanza es que NHN=NNH (matrices normales)

Si N es normal, por el Lema de Schur existe una matriz triangular T tal que

luego T es también normal. Se puede comprobar que para que una matriz triangular pueda cumplir la condición THT=TTH debe ser diagonal. Si T es diagonal, es la matriz de valores propios Λ, porque tiene los mismos valores propios que N, cuyos vectores propios son las columnas de USi N tiene n vectores propios ortonormales, existirá una matriz U tal que:

y N es normal, pues el producto de matrices diagonales es conmutativo.

H H H H

H H H H H H H H H H H H

=

= = = = =

T = U NU T U N UTT U NUU N U U NN U U N NU U N UU NU T T

H H H H

H H H H H H

H H H H H H

=

= = =

= = =

N = UΛU N UΛ UNN UΛU UΛ U UΛΛ U

UΛ ΛU UΛ U UΛU N N

ETSII-UPM

Transformaciones de congruenciaUna transformación de congruencia está definida en la forma.

Estas transformaciones surgen de realizar un cambio de base en una forma cuadrática

Las transformaciones de semejanza: Con matrices ortogonales son también transformaciones de congruencia, peroNo cualquier transformación de congruencia es de semejanza

Ley de Inercia de Sylvester: “Las transformaciones de congruencia conservan el signo de los valores propios, es decir, el número de valores propios negativos, iguales a cero y positivos”Consecuencia:

Para cualquier matriz simétrica A=LDLT los signos de los pivots que aparecen en D coinciden con los signos de los valores propios de A, pues A y D están relacionadas por una transformación de congruencia

T=B C AC

; ; ; T T T T Tf f= = = =x Ax x = Cy y C ACy y By B C AC

ETSII-UPM

Para matrices hermíticas n×n existe una matriz ortogonal Q tal que

Análogamente, para una matriz real m×n cualquiera existe una factorización en la forma

donde U y V son matrices ortogonales de tamaño m×m y n×n, respectivamente, y D es una matriz diagonal de tamaño m×n cuyos elementos son tales que dii>0 (i=1,2,...,r) y dii=0 (i>r). Gráficamente:

A esta factorización se le llama “Descomposición de Valores Singulares” (Singular Value Decomposition ó SVD) y tiene importantes aplicaciones en Ingeniería

Descomposición de valores singulares

H=A QΛQ

T=A UDV

A U DVT

=A U D

VT

=

ETSII-UPM

Descomposición de valores singulares (2)Cálculo y existencia de la SVD

La matriz ATA es simétrica y por tanto tiene n vectores propios ortogonales vique pueden formar las columnas de la matriz n×n ortogonal V:

El valor propio λi es no-negativo y se puede expresar en la forma:

Si A tiene rango r la matriz ATA tendrá también rango r (N(A)=N(ATA)). Habrá r valores propios λi mayores que cero y n-r valores propios ceroSe definen el valor singular σj y el vector uj (uj∈Rm) en la forma:

Los vectores uj así formados son ortogonales en el espacio Rm:

Los r vectores ortogonales uj se pueden completar por medio del método de Gram-Schmidt con otros m-r vectores ortogonales hasta ser una base de Rm.Los m vectores ortogonales uj constituyen las columnas de la matriz m×m U.

( ) T Ti i iλ= =A Av v A A V VΛ

2= T T T T Ti i i i i i i i i iλ λ λ= = =v A Av v v v A Av Av

1, 2,...,j j j j j j rσ λ σ= = =u Av

= 0 T T T Ti j i j i j j i j i j i jσ σ λ σ σ= = ≠u u v A Av v v

Page 4: resumen diagonalizacion matrices

4

ETSII-UPM

Descomposición de valores singulares (3)Propiedades del producto UTAV (se pretende demostrar A=UDVT)

El elemento (i,j) de este producto matricial será:

En definitiva, el producto UTAV es igual a una matriz m×m D que sólo tiene distintos de cero los r primeros elementos de la diagonal. Estos elementos son los valores singulares σj. Por tanto:

Como las matrices U y V son cuadradas y ortogonales se puede escribir:

que es la expresión de la Descomposición de Valores Singulares (SVD).Como no se ha presupuesto ninguna condición para la matriz A, la SVD existe para cualquier matriz rectangular, cualquiera que sea su rango r.

La SVD tiene propiedades muy importantes, derivadas de la ortogonalidad de las matrices U y V, y del carácter no negativo de los valores singulares σj.

( ) = si por la definición de 0 si pues 0

T T Ti j i j j ij j jij

j

j rj r

σ δ σ= = ≤= > =

U AV u Av u u uAv

T =U AV D

T=A UDV

ETSII-UPM

Descomposición de valores singulares (4)Propiedades de las matrices U y V en A=UDVT

Las columnas de U son los vectores propios de AAT

Las columnas de V son los vectores propios de ATA

Tanto AAT como ATA tienen los mismos valores propios Relación de las matrices U y V con los subespacios de A

Las columnas 1 a r de U son una base ortonormal de Im(A) Las columnas r+1 a m de U son una base ortonormal de Ker(AT) Las columnas 1 a r de V son una base ortonormal de Im(AT) Las columnas r+1 a n de V son una base ortonormal de Ker(A)

Las propiedades anteriores se deducen de las relaciones siguientes:Ker(ATA)=Ker(A), pues si Ax=0 también se verifica ATAx=0 y si ATAx=0 se verifica que xTATAx=(Ax)TAx=0, luego Ax=0.Im(ATA)=Im(AT), pues ambos son los espacios ortogonales complementarios de Ker(ATA) y Ker(A) en Rn.Análogamente, Ker(AAT)=Ker(AT), Im(ATA)=Im(A) y Im(AAT)=Im(A)

( )T T T T T T m T= = =AA UDV VD U UDD U UΛ U

( )T T T T T T n T= = =A A VD U UDV VD DV VΛ V2

i iλ σ=

ETSII-UPM

Matriz seudo-inversa A+

A partir de la SVD se puede definir una matriz A+, llamada “seudo-inversa” de A, como

donde D+ es una matriz n×m diagonal cuyos elementos son los inversos de los valores singulares de D (que es una matriz m×n)La matriz A+ tiene algunas propiedades semejantes a las de la matriz inversa A−1 (que sólo existe cuando A es cuadrada y no singular)

(A+)+=ASe puede demostrar que la matriz A+ es única, a pesar de que la SVD de la que deriva no está completamente definida (se elige parte de V, por ejemplo)Se verifican las igualdades AA+A=A y A+AA+=A+

Las matrices AA+ y A+A son hermíticasSin embargo, no se cumple que A+A=AA+=I

(siendo )T T+ += =A VD U A UDV

ETSII-UPM

Matriz seudo-inversa A+ (2)Resolución del sistema de ecuaciones Ax=b por medio de x+=A+b

La solución de la seudo-inversa tiene como expresión

Cuando el sistema es incompatible, A+b da la solución de mínimos cuadrados

Cuando el sistema es indeterminado, A+b da la solución de norma mínima, pues cualquier solución x es la suma de una solución particular xf∈Im(AT) y una solución de la ecuación homogénea xn∈Ker(A). La solución de mínima norma x+ se obtiene cuando xn=0, es decir cuando x+∈Im(AT). La expresión de x+ indica que pertenece a Im(AT), pues dicho espacio está generado por las rprimeras columnas de la matriz VCuando A es invertible, A+=A−1, pues x+=A+b debe ser al mismo tiempo la solución de mínimo error y de mínima norma, luego coincidirá con A−1b

T+ + +=x = A b VD U b

2 2 2 2min min min min

T

T T T T

x x x y

=

− = − = − = −y V x

Ax b UDV x b DV x U b Dy U b

2 2min min T T T

x y

+ + + + + +− = − = = = =Ax b Dy U b y D U b x Vy VD U b A b

ETSII-UPM

Cociente de RayleighPara matrices simétricas se define el cociente de Rayleigh como

Sustituyendo x por el vector propio xi se obtiene el valor propio λi

Si los valores propios se ordenan de modo que |λ1|< |λ2 |<...< |λn|, el cociente de Rayleigh es mínimo para x=x1, máximo para x=xn y presenta un valor estacionario para cualquier otro vector propio

De aquí se concluye que la condición de valor estacionario equivale a que el cociente de Rayleigh cumpla la ecuación de valores propios

( )T

TR =x Axxx x

( )T Ti i i i i

i iT Ti i i i

R λ λ= = =x Ax x xxx x x x

2

( ) 2 ( ) 2( )( )

T T

T

dRd

−= =

x Ax x x x Ax x 0x x x

2 ( ) 2( )T T− =Ax x x x Ax x 0

( )T

T R− = − =x AxAx x Ax x x 0x x

ETSII-UPM

Cociente de Rayleigh (2)Expresando x en base de vectores propios x=Qy

Si los valores propios se suponen ordenados de menor a mayor

Todos los cocientes λi/λ1 son mayores que uno, y por tanto el mínimo de R(x) vale λ1 y se produce cuando el vector x es x1 (y1=1, yj=0, j≠1)

De forma análoga, sacando factor común λn, se puede demostrar que el máximo de R(x) vale λn y se produce cuando x es el valor propio xn (yn=1, yj=0, j≠n)

2 2 221 22 2 2

1 1 2 2 1 112 2 2 2 2 2

1 2 1 2

......( )

... ...

nnT T T T

n nT T T

n n

y y yy y yRy y y y y y

λλλ λ λ λ λλ

+ + ++ + +

= = = = =+ + + + + +

x Ax y Q AQy y Λyxx x y y y y

1 2 ... nλ λ λ< < <

Page 5: resumen diagonalizacion matrices

5

ETSII-UPM

Cociente de Rayleigh (3)Si en el cociente de Rayleigh la aproximación en el vector propio es lineal, la aproximación en el valor propio es cuadrática

Si x=xi+εv, siendo v el error en xi, se cumple que R(x)=λi+0(ε2) Demostración

Como el error v no tiene componente en xi, se cumplirán las relaciones

Sustituyendo en la expresión del cociente de Rayleigh

Desarrollando en serie el segundo factor y agrupando términos

( )vvvxxxAvvAvxAxx

vxvxvxAvxvx TT

iiTi

TTii

Ti

iTT

i

iTT

iiR 2

2

22

))(()()(

εεεε

εεεεε

++++

=++++

=+

∑∑≠≠

======ij

jjT

iTT

iijjTiii

ijjjv 2 0 0 A αλδλα AvvxvAvxxxxxx

( )1

222222

22

11

0 −

≠≠≠

+

+=

+

++=+ ∑∑∑

∑ij

jij

jji

ijj

ijjji

iR αεαλελαε

αλελεvx

( ) ( )2 2 2 4 ...i i j j i jj i j i

R ε λ ε λ α λ α ε≠ ≠

+ = + − + +

∑ ∑x v

ETSII-UPM

Teorema mini-max y maxi-minTeorema maxi-min para los valores y vectores propios

El máximo de los mínimos de R(x), sujeto a la restricción x⊥w, es λ2 y se obtiene cuando x=x2

En general, para r≥2

DemostraciónExpresando x en base de vectores propios

Las incógnitas de la minimización son los αj, que están restringidos por la condición de que x sea ortogonal a los vectores wi

max min 1, 2,... siendo 0, 1, 2,..., ( 1)i

TT

r iT r n i rλ

= = = = − xw

x Ax x wx x

jjxx ∑= α

+++++

+++++=+

++22

122

1

21

21

21

21

............minmax

nrr

nnrrrr

ji

Rαααα

λαλαλαλααw

+++++

−++−+−++−−=+

++−−22

122

1

21

211

211

21

......)(...)()(...)(minmax

nrr

nrnrrrrrrrr

ji

Rαααα

λλαλλαλλαλλαλαw

0== ∑ jjTi

Ti xwxw α

ETSII-UPM

Teorema mini-max y maxi-min (2)(cont.)

Los valores de αi deben minimizar el paréntesis interior, a la vez que satisfacen las restricciones. La fracción, que tiene signo negativo (–), deberá ser lo mayor posiblePara ello, αr+1=...=αr=0, pues así se anulan los términos negativos (que restan) del numerador de la fracciónLos (r−1) valores de (α1, α2, ..., αr−1) se deben elegir de modo que se cumplan las (r−1) restriccionesEs evidente que R(x)<λr pues a λr se le está restando algo positivo (>0) Sin embargo, para wi=xi, se cumple que α1=α2= ...=αr−1=0 y se alcanza la igualdad R(x)=λrCon esto queda demostrado el teorema maxi-min

De forma análoga se puede demostrar en teorema mini-max

+++++

−++−+−++−−=+

++−−22

122

1

21

211

211

21

......)(...)()(...)(minmax

nrr

nrnrrrrrrrr

ji

Rαααα

λλαλλαλλαλλαλαw

ETSII-UPM

Teorema mini-max y maxi-min (3)Enunciado conjunto de los teoremas mini-max y maxi-min

El valor propio λr se puede obtener de las expresiones siguientes

donde los wi son conjuntos de r vectores arbitrarios de Rn

min max max min

2,..., 1 siendo 0, 1, 2,..., ( 1)

i ii i

T T

r T T

Tir n i r

λ⊥⊥

= =

= − = = −

w x wx w w

x Ax x Axx x x x

x w

ETSII-UPM

Interpretación gráficaLa restricción de ser perpendicular a un vector w:

obliga a buscar mínimos en la elipse perpendicular a dicho vectorel máximo de los mínimos se obtiene cuando w=x1

ETSII-UPM

“Separación” de los valores propiosSi A(m) es la matriz que resulta de suprimir las últimas m filas y columnas de la matriz A, se cumple que los (n−m−1) valores propios de A(m+1) separan –están entre– los (n−m) valores propios de A(m)

La propiedad anterior se va a demostrar para A y A(1)

A(1) es la matriz que resulta de suprimir la última fila y columna de A. Se trata de demostrar que se cumple la relaciónConsidérense las tres caracterizaciones maxi-min siguientes:

A más libertad para elegir los vectores wi se podrán encontrar mayores máximos de los mínimosLa condición a) deja más libertad para elegir los wi que b), luego

1,...,2,1 1)1( −=≤≤ + nrrrr λλλ

1a) max min 0 1, 2,...,ii

TT

r iT i rλ + ⊥

= = =

x ww

x Ax x wx x

(1) 0 1, 2,...,b) max min

arbitrario para 1,2,..., 1 ii

TTi

r Ti r n

i ri r

λ⊥

= = = = − = x ww

x wx Axx x w w e

c) max min 0 1, 2,..., 1ii

TT

r iT i rλ⊥

= = = −

x ww

x Ax x wx x

)1(1 rr λλ ≥+

rr λλ ≥)1(