Curso Básico - Métodos Numéricos

208
 Curso B´ as ico de et o do s Nu er ic os Natividad Calvo y Fernando Varas 10 de febrero de 2009

Transcript of Curso Básico - Métodos Numéricos

CursoBasicodeMetodosNumericosNatividad Calvo yFernandoVaras10defebrerode2009Copyright c _2007-2009NatividadCalvoyFernandoVaras. Algunosderechosreservados.ConsultelaseccionLicenciaCreativeCommonsalnaldeltexto.IndicegeneralPresentacion 71. Introduccionynecesidaddelosmetodosnumericos 111.1. Modeladomatematico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.2. Analisisnumericoymetodosnumericos . . . . . . . . . . . . . . . . . . . . . 131.3. Analisisdeerrores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141.4. Codigosdemetodosnumericos. . . . . . . . . . . . . . . . . . . . . . . . . . 221.5. Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252. Resolucionnumericadeecuacionesdeunavariable 272.1. Motivacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272.2. Separacionderaces(reales) . . . . . . . . . . . . . . . . . . . . . . . . . . . 342.3. Metododebiseccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362.4. MetododeNewton-Raphson. . . . . . . . . . . . . . . . . . . . . . . . . . . 412.5. Metododelasecanteyvariantes . . . . . . . . . . . . . . . . . . . . . . . . 492.5.1. Metododelasecante . . . . . . . . . . . . . . . . . . . . . . . . . . . 492.5.2. Metododeregulafalsi . . . . . . . . . . . . . . . . . . . . . . . . . . 542.6. Aceleraciondelaconvergencia. . . . . . . . . . . . . . . . . . . . . . . . . . 602.7. Codigosdisponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 622.8. Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 633. Resoluciondesistemasdeecuacioneslinealesynolineales 653.1. Motivacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 653.2. Condicionamientodelproblemayclasicaciondelosmetodos . . . . . . . . 663.3. Metodosdirectos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.4. Metodositerativosclasicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 853.5. Metodosdetipogradiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 943.5.1. Metododelmaximodescenso(ometododegradiente) . . . . . . . . . 953.5.2. Metododegradienteconjugado . . . . . . . . . . . . . . . . . . . . . 993.6. Metodosnumericosparasistemasdeecuacionesnolineales . . . . . . . . . . 1053.7. Codigosdisponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1093.8. Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11034INDICEGENERAL4. Calculodeautovaloresyautovectores 1134.1. Motivacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1134.2. Algunascuestionesgenerales . . . . . . . . . . . . . . . . . . . . . . . . . . . 1154.3. Metododelapotenciaysusvariantes. . . . . . . . . . . . . . . . . . . . . . 1194.4. Tecnicasdedeacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1244.5. MetodobasadoenlafactorizacionQR . . . . . . . . . . . . . . . . . . . . . 1274.6. Codigosdisponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1334.7. Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1345. Interpolacionnumerica 1355.1. Motivacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1355.2. Aproximaciondefuncionesmediantepolinomios . . . . . . . . . . . . . . . . 1365.3. InterpolaciondeLagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1385.3.1. ExistenciayconstrucciondelpolinomiodeinterpolaciondeLagrange 1385.3.2. ErrordeaproximacionenlainterpolaciondeLagrange . . . . . . . . 1425.4. Aproximacionpolinomicaatrozos. . . . . . . . . . . . . . . . . . . . . . . . 1505.4.1. Interpolacionlinealatrozos . . . . . . . . . . . . . . . . . . . . . . . 1505.4.2. Interpolacionc ubicaatrozos(splinec ubicos) . . . . . . . . . . . . . . 1525.5. Codigosdisponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1545.6. Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1556. Derivacionnumerica 1576.1. Motivacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1576.2. Interpolacionyderivacionnumerica . . . . . . . . . . . . . . . . . . . . . . . 1586.3. Derivacionnumericamedianteesquemasdediferenciasnitas . . . . . . . . . 1606.3.1. Ideageneraldelasformulasendiferenciasnitas . . . . . . . . . . . 1636.3.2. Formulasendiferenciasnitasparaderivadasdeprimerorden . . . . 1636.3.3. Formulasendiferenciasnitasparaderivadasdesegundoorden . . . 1706.3.4. Aplicaciondelasformulasendiferenciasnitas . . . . . . . . . . . . 1736.4. Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1757. Integracionnumerica 1777.1. Motivacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1777.2. Interpolacioneintegracionnumerica . . . . . . . . . . . . . . . . . . . . . . 1787.3. Formulasdecuadraturasimples . . . . . . . . . . . . . . . . . . . . . . . . . 1807.3.1. FormulasdeNewton-Cotes(cerradas) . . . . . . . . . . . . . . . . . . 1817.3.2. FormulasdeGauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1887.4. Formulasdecuadraturacompuestas. . . . . . . . . . . . . . . . . . . . . . . 1917.4.1. FormulasdeNewton-Cotes(cerradas)compuestas . . . . . . . . . . . 1947.4.2. FormulasdeGausscompuestas . . . . . . . . . . . . . . . . . . . . . 1967.5. Formulasdecuadraturaadaptativas . . . . . . . . . . . . . . . . . . . . . . . 1987.6. Algunasextensiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1997.7. Codigosdisponibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2007.8. Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2015LicenciaCreativeCommons 2036PresentacionProbablemente sea conveniente comenzar por aclarar la intencion de estos apuntes. Desdeluego, estaspaginasnoaspiranaconvertirseenunlibrodetexto. Sontansolounasnotasque pretenden acercar a sus lectores a alguno de los numerosos buenos textos sobre metodosnumericos.Enesesentido,losapuntesabordan lapresentaciondelosmetodosmaselemen-tales reriendoal lector aotrostextos paraampliar sus contenidos. Por otrolado, estasnotassehanelaboradopensandoenalumnosdeIngenieraoFsica. Estonoquieredecirque, eventualmente,alumnos de Matematicas no puedan sacar alg un provecho de su lectura,peros queel interesdelaspresentacionesquesehacenaqu secentraenlaaplicaciondelosmetodosnumericosynotantoenelanalisispormenorizadodesuspropiedades.Ciertamente, estos apuntes se apartan algo de los textos tradicionales de metodos numeri-cosalnodetallarlaimplementaciondelosalgoritmosolosdetallesdeconstructivosdeal-gunosmetodos(porejemplo,ellectorpuedeecharenfaltalapresentaciondedetallessobreelcalculodefactorizacionesdematricesolosalgoritmos dediferenciasdivididas).Larazonesta en que los autores consideran que (a diferencia de lo que ocurra cuando estos estudiaronporprimeravezmetodosnumericosyfueronescritosmuchosdelostextosclasicos)hoyespocofrecuentequeseprogramenlosmetodosnumericosmasbasicos(alosquesededicaestetexto)sinoqueseacudaaalgunodelosmuyprobadosyefecientes codigosdisponi-bles(sobrelosquesehanincluidooportunasmenciones). As,sehapreferidoinsistirsobrelaspropiedadesdelosmetodosyloquecabe(ono)esperardeellos, antesquededicarsuatencionadetallesconstructivosqueprobablementeloslectoresnofuesenavalorar.Aunque algunos textos recientes (o incluso adaptaciones recientes de textos mas antiguos)de metodos numericos para Ingeniera o Fsica han optado por eliminar toda demostracion delaspropiedadesdelosmetodos,aqusehaoptadoporpresentarlasmaselementalesycitaralguna referencia bibliograca para las mas complejas. La razon esta en el convencimiento deque esta presentacion (junto con la ilustracion a traves de ejemplos adecuadamente elegidos)refuerzanotablementelacomprensiondelascapacidadesdecadametodonumerico. Porelcontrario, los autores creen que la reciente tendenciaa elaborar textos con presentaciones deextensas listas de metodos acompa nados eventualmente de alguna propiedad de convergenciapero desprovistos de toda demostracion difcilmente puede hacer que el lector adquiera algunaseguridadenlautilizacionde los metodos numericos. Ciertamente, confrecuencianoesfacilelegirunbuenmetodonumericoparalaresoluciondeundeterminadoproblema,peroprobablementeseamejorquedichacapacidadseadquieraprogresivamente(partiendodeuna buena comprensionde los metodos mas basicos) conel estudio pausado de nuevosmetodosylaexperienciaganadaconlapractica. Pretender queunalumnoenfrentadoa78unapresentacionde decenasy decenasde metodos, juntocon observacionessobreel tipo deproblemas para el que es adecuado cada uno de estos metodos, pueda adquirir esta capacidadnopareceenabsolutorealista.Al nal decadatema, traslapresentaciondelosmetodosm asbasicos, sehanincluidodossecciones dedicadas arecoger, laprimera, unabibliografarelevanteparaampliarloscontenidos de dicho tema y, la segunda, una referencia a programas o paquetes de programaslibremente disponibles que incorporan los metodos presentados. La razon de incluir la primeraseccion es, como ya se ha dicho, que la aspiracion de estas notas es simplemente la de servir deacercamiento a estos textos. La segunda seccion se ha incluido porque los autores consideranimportanteresaltarlaconveniencia, alahoradeemplearmetodosnumericos, deemplearcodigosecientes ybiendepurados. As, salvoquesetratedeunmetodomuyespecco(locualdifcilmenteocurriraenunprimeracercamientoalosmetodosnumericos),nodebepreferirse laprogramacionpor parte del usuariode unafuncionalautilizacionde unabuenafuncion delas muchasdisponibleslibremente,pues estas ultimas emplearancon todaseguridadunaprogramacionmasecienteyhabransidobiendepuradastrasserrevisadasporunaampliacomunidaddeusuarios.Comopuedeobservarse, estedocumentosedistribuye conunaversiondelaLicenciaCreative Commons. Los autores quierenas contribuir (aunque sea muymodestamente,desde luego) a una comunidad a la que deben mucho. La labor de quienes elaboran, depurano mantienen numerosos codigos de calculo cientco distribuidos bajo licencias libres hace quenuestrotrabajo seainconmensurablementemas facil. Esdesdeluegofundamentalreconoceryrespaldaresalabor, yentendemosquequizasunmododehacerlopuedaser(al margendelapropiadifusiondeloscodigos)mediantelatareacomplementariadelaelaboraciondetextosrelativosalosmetodosnumericosdistribuidosbajolicenciasigualmentelibres.Invitamosnalmenteatodosaquelloslectoresquedeseenhaceralgunasugerenciasobreestetextoollamarnuestraatencionsobrealg unerrorcontenidoenel, aquesedirijananosotrosatravesdeladirecciondecorreoelectronicocurro@dma.uvigo.es.Vigo,Febrerode2007HistorialderevisionesVersion0.1,Febrerode2007Primeraversiondel textoconsuestructuradenitiva. Al margendelas(numerosas)erratas,faltana un algunosejemplosyreelaborarlasguras.Version0.2,Febrerode2008Sehancorregidoalgunasdelas(muynumerosas)erratasdelaversion0.1,a unnosehana nadidolosejemplospendientesnisehanreelaboradolasguras.Version0.3,Febrerode2009Sehancorregidounaspocaserratasadicionales.910Captulo1IntroduccionynecesidaddelosmetodosnumericosEnestetemaseconsideranalgunascuestionespreviasrelativasalosmetodosnumeri-coscomosonsurelacionconel modeladomatematico, ladenicion(habitual)deanalisisnumerico y de metodos numericos, las fuentes de error en el empleo de los metodos numericos,ascomoalgunasreferenciassobreloscodigosinformaticosdisponibles.1.1. ModeladomatematicoUnodelosaspectosdelasMatematicasconmayorrelevanciaenel campocientcoytecnologicoeslamodelizacionmatematica, quetratadeestablecermodelosformadosporunconjuntomasomenoscomplejodeecuaciones(enloscasosmassimplessetrataradeecuaciones algebraicas, pero en la mayor parte seran ecuaciones diferenciales) que representenunciertosistema(com unmente, setratarade unsistemafsico, perodesde hacetiempotambien se extienden esas ideas a los sistemas economicos y, mas recientemente, a los sistemassociales).Lamodelizacionmatematicapermite entonces predecir el comportamientode los sis-temas, acondiciondedisponerdeunmodeloadecuado(unaetapaimprescindibleseralacontrastaciondel modeloconlarealidad)ysercapacesderesolverel modelomatematicopropuesto.Este enfoque se aplica a sistemas con escalas (de complejidad) muy distintas. La descrip-ciondelcomportamientoelectricodeunaresistenciamediantelaleydeOhm(quepermitepredecirlacadadetensionolacorrienteelectrica)esunejemplodeunsistemasencillo.Lapredicciondel climaglobal (vease, por ejemplo, el textode J.L. Lions citadoenlasreferencias)esunejemplodeunsistemadeenormecomplejidad.De una uotraforma, laresolucionde los modelos matematicos que representanlossistemas fsicos estadetras delamayor partedelasMatematicas quesemanejanenlasense nanzas tecnicas (aunquelosmodelosterminanporconfundirseconlarealidad). A un1112CAPITULO1. INTRODUCCIONYNECESIDADDELOSMETODOSNUMERICOSmas, casi todaslasramasdelasMatematicasnacieronpararesponderalamanipulaciondemodelosparael mundofsicoy, ciertamente, el papel delasMatematicashasidomuyimportante enel desarrollotantode otras ciencias (especialmente laFsica) comoenlaTecnologa(cons ultese,porejemplo,eltextoylaconferenciadeJ.L.Vazquezqueaparecenenlasreferencias).Considerandoahora la resolucion de las ecuaciones que constituyenel modelo matemati-co,seobservaquelamayorpartedelosmodelosconsideradosson,sinembargo,losucien-tementecomplejoscomoparanopoderserresueltosanalticamente.Una alternativa para poder tratar entonces analticamente los modelos, empleada muchasveces, es admitir las simplicaciones necesarias para que lo sean (las ventajas de disponer deuna solucion analtica que permita ilustrar algunas propiedades del modelo puede pesar mas,sobretododesdeunpuntodevistaacademico, quelosinconvenientesdequeel modelonosea realista). Un caso habitual es la hipotesis de linealidad de los modelos, justicada cuandose trata de analizar el comportamiento local de un sistema(se describeel funcionamientodeunsistemamuycercadeunestadodereferenciayseaproximasuleydecomportamientoporundesarrollodeTaylortruncadoenelprimerorden)peronoenotroscasos.Sinembargo, enlamayorpartedelassituacioneslashipotesisnecesariasparaobtenerun modeloresoluble analticamentedesvirt uan por completoel modelo y lo hacen inservibleconnespracticos(comoocurre, porejemplo, conel comportamientodeundiodoenuncircuitoelectrico).As, enlapracticaesabsolutamentehabitual encontrar problemasquenopuedenserresueltos de forma analtica. Ademas, en muchos otros casos, se encuentran problemas que sonresolublesanalticamenteperoparaloscualesdicharesolucionesinviabledesdeelpuntodevista practico debido a la complejidad o al volumen de los c alculos implicados. A continuacionsemuestranalgunosejemplos:Enteoradecircuitos(recuerdenseloscontenidosdeAnalisisdeRedesoDispositivosElectronicos) existen muchos componentes para los cuales se supone un comportamien-tolineal (comoseacabademencionar, estahipotesispuedeseraceptablesi conside-ramos el comportamientodel circuitoenunentorno, quizas reducido, deunciertoregimendefuncionamientoperonotantoparaestudiarunregimenmasgeneral), deforma que resultarelativamentefacil analizar los circuitosen los cualessolo intervieneeste tipo de elementos (siempre y cuando el circuito no contenga un n umero elevado decomponentes). Sinembargo,si introducimoselementosconcomportamientonolineal(piensese, porejemplo,enelcasoantescitadodeundiodo)engeneralyanoserapo-siblelaresoluciondedichocircuito.Eltema2delaasignatura(Resolucionnumericadeecuacionesdeunavariable)abordaelestudiodemetodosnumericospararesolverdeformaaproximadaestetipodeproblemas.Retomandolateoradecircuitos, cuandoseconsiderancircuitosformadosexclusiva-mente por elementos lineales, laresoluciondeestos mediante laleyes deKirchhoconduceasistemas deecuaciones lineales. Si el circuitonoes demasiadocomplejo,estossistemaspuedenser resueltos amanoperoencuantoel n umerodeelementos1.2. ANALISISNUMERICOYMETODOSNUMERICOS 13enelcircuitocrece,lossistemascomienzanaserinabordablesyesprecisocontarcontecnicas que permitan su resolucion (exacta o aproximada) mediante un ordenador. Nique decir tiene que la resolucion de circuitos complejos con elementos no lineales obliga,por doble razon, a emplear metodos numericos en su resolucion. El tema 3 (Resoluciondesistemasdeecuacioneslinealesynolineales) aborda precisamentedichosmetodos.El calculodel ndiceconel cual el buscadorGoogleordenalaspaginasencontradas(que el programa denomina PageRank) constituye un problema algebraico interesante.Como puede consultarse en el libro de C. Moler o el artculo divulgativo de P. Fernandezmencionadosal nal deestetema(oenmultituddepaginasenInternet), elndicePageRankesenrealidadunautovectordeunamatrizasociadaalaconectividaddelas paginas de Internet. Es facil imaginar que dada lamagnituddel problema, esprecisocontar contecnicas computacionales adecuadasparaabordarsucalculo. Deformaquizasmasmodesta, el analisisdelaestabilidaddelossistemas(linealesonolineales, eneste ultimocasoatraves desulinealizacion) pasapor el calculodelosautovaloresdeciertasmatricesasociadasaestossistemas. Dichoproblema, comosesabe, nopuedeserresueltodeformaanalticasalvoqueel sistemaseamuysencillo.Enel tema4(Autovaloresyautovectores)seestudiaranalgunosmetodosnumericosparalaaproximaciondeautovalores(yautovectoresasociados)dematrices.En la materia Se nales y sistemas analogicos se ha abordado la representacion y manipu-lacion de se nales muestreadas. En dichas operaciones interviene a menudo la necesidaddeaproximarunase nalmedianteunafuncionpolinomica(yaseaglobaloatrozos)yobteneraproximacionesdederivadasointegralesdondeaparecedichafuncion(comoesel casodel calculodeconvoluciones). Estetipodeproblemas(conaplicacionesenmuchsimosmas ambitos que el mencionado) seran abordados en los temas 5 (Interpo-lacion numerica), 6 (Derivacion numerica) y 7 (Integracion numerica) de la asignatura.Se plantea entonces la necesidad de completar las herramientas analticas con otras tecni-cascapacesderesolver deformaaproximada(peroconlaposibilidaddecometer erroresarbitrariamentepeque nos,aunqueseaconuncostedecalculomuyelevado)esosproblemasy esaesjustamentelamisiondelosmetodosnumericos.1.2. AnalisisnumericoymetodosnumericosEs posible denir los metodos numericos como aquellos algoritmos que permiten resolver,de forma exacta o aproximada, problemas matematicos que involucran el calculo de determi-nados valores y no pueden ser abordados (o lo son con un coste o complejidad muy elevados)mediantetecnicasanalticas.Ciertamente esta denicion es vaga pero, a cambio, permite abarcar todos aquellos meto-dosquesonhabitualmenteincluidosenelestudiodelosmetodosnumericos.Aunque existabasicamente unacuerdoacercade loque sonlos metodos numericos,14CAPITULO1. INTRODUCCIONYNECESIDADDELOSMETODOSNUMERICOSnoexisteunadenicionunanimemente aceptadadeloscontenidos, lmites oenfoquedelcampo de conocimiento dedicado al estudio de los metodos numericos (como ejemplo, puedenconsiderarse los muy diversos contenidos, pero sobre todo enfoques, de asignaturas que llevanel ttulodeMetodosNumericos, algoquenoocurresi seconsultanmateriasquellevenelnombredeCalculo). Dehecho, existendiferentesnombresparadescribirel estudiodelosmetodos numericos: analisis numerico, calculo cientco y calculo numerico y, en cierto modo,elempleodecadaunodeellosestaasociadoaundeterminadoenfoque.La razon de estas diferenciasse encuentraen que los metodos numericosestan relaciona-dos con muchas disciplinas. As, los metodos numericos guardan, desde luego, relacion con lasMatematicas, perotambienconmuchasotrasareascomolaAlgortmica,laProgramacion,laIngenieradel Softwarey, sobretodo, conlasdiferentesareastecnologicasenlascualeslanecesidadderesolverproblemasintratablesmediantestecnicasanalticashamotivadoeldesarrollodelosmetodosnumericos.Estavinculaciondelos metodos numericos condistintos ambitos deconocimientodalugaravariosposiblesenfoquesdesuestudio,entreloscualesestan:analisisdelaspropiedadesdeconvergenciadelosmetodosnumericosutilizacionecientedelosmetodosnumericosestudiodelaprogramacion(eciente)delosmetodosnumericosaplicaciondelosmetodosnumericosenundeterminadocampoEl presente curso abordara (parcialmente) los dos primeros enfoques (con especial enfasisenelsegundo). Eltercerodelosaspectosseraabordado(deformaintroductoriayparcial)enlamateriaLaboratoriodeAnalisis Numericoyel ultimoseraconsideradoendiversasmateriasdelatitulacion.1.3. AnalisisdeerroresLos metodos numericos proporcionanunasolucionaproximadade los problemas quetratanderesolver (aunquees ciertoquealgunos delos metodos queseestudiaranenelcursoproporcionaranidealmenteunasolucionexacta,comoseveraacontinuacionestonoocurrirapracticamentenuncaunavezqueseresuelva, comoseharasiempre, mediantelaprogramaciondelosalgoritmosenunordenador).Denominaremoserroraladiferenciaentrelasolucionquelosmetodos,unavezprogra-mados, devuelvenylasolucionexactadel problemaquesetrataderesolver. Esteerroresdebidoadosfuentesbiendistintas:errordetruncamiento(tambienllamado,aveces,deaproximacion)errorderedondeo1.3. ANALISISDEERRORES 15quesepresentanbrevementeacontinuacion.ErroresdetruncamientoLa nalidad de la mayor parte de los metodos numericos es proponer algoritmos para re-solver de forma aproximada aquellos problemas que no se pueden resolver mediante metodosanalticos(solounapartedelosmetodos-fundamentalmentedel algebranumericalineal-buscan idealmente resolver de forma exacta problemas que pueden ser resueltos exactamentemediantemetodosanalticosperoqueimplicancalculossucientementetediososcomoparaquesepreeranollevarlosacabo).As,loqueproponenestosmetodosesunatecnicaparacalcularunvalorproximoaldelasolucionexactadel problemaencuestionyladiferenciaentreestosdosvaloresesloque(generalmente)denominaremoserrordetruncamiento.A cualquier metodo numerico debemos pedirle, desde luego, que ese error de truncamientopueda hacerse arbitrariamente peque no (a costa habitualmente de la necesidad de hacer mascalculos). Una parte fundamental del estudio de metodos numericos es, justamente, el estudiodeladependenciadel errordetruncamientoconrespectoalosdatosdel problema(pueshabraproblemasmasomenosdifcilesderesolver)ylosparametrosdel metodonumerico(como,porejemplo,eln umerodeiteracionesoelvalordepartidaenaquellosmetodosquecalculenunvalormedianteaproximacionessucesivas).ErroresderedondeoDesdehace bastante tiempo(aunquenosiempreha sidoas) resultaimpensableresolvercierto problema mediantemetodos numericosllevando a cabo manualmente las operaciones,sino que el algoritmo propuesto por el metodo se programar a en un ordenador. La programa-cion en un ordenador de los metodos numericos conlleva una fuente de error adicional, ligadaa la representacion mediante un n umero nito de bits de las variables numericas. A este errorseledenominaerrorderedondeoyestaligadofundamentalmenteal tipodeprecisionqueseemplee(algodeterminadoporelprocesadoryelsoftwareusados).Sinembargo,comosevera posteriormente, el efecto nal de los errores de redondeo depende tambien del algoritmopropuestoporelmetodonumericoyporlaformadeprogramarlo.LarepresentacionencomaotantecondobleprecisionjadaporlanormaANSI/IEEE(ANSI/IEEEStandard754-1985forBinaryFloating-PointArithmetic)queeslaqueem-plean,por ejemplo,tantoOctavecomoMATLABpor defecto,emplea64bitspara larepre-sentaciondelosn umeros(reales).Deellos,1bitcorrespondealsigno,11bitsalexponenteylos52restantesalamantisa.As, la representacionnormalizada de un n umero almacenado en doble precisiontoma laforma(1 + f) 2edonde1 + f= (1.a1a2a3...a52)216CAPITULO1. INTRODUCCIONYNECESIDADDELOSMETODOSNUMERICOSe = 1023 + (b1b2...b11)2deformaque1 1 + f 2 2521023 e 1023 + 2111 = 1024aunquelosvaloresextremos deesereservanpararepresentar dosn umerosespeciales (elvalorinferiorpara0yelvalorsuperiorparaInf).Parael almacenamientocondobleprecisiondescritoporlanorma, setendraentoncesque:el menor n umero real (positivo) representable (denominado realmin enOctave yMATLAB)vienedadopor+(1.000...000)221022 2.2251 10308de modo quecualquierresultadomaspeque no queestacantidadoriginara un error deunderow(oseraguardadocomocero,seg unelentorno).el mayor n umeroreal representable (denominadorealmaxenOctave yMATLAB)vienedadopor+(1.111...111)221023= (2 252) 21023 1.7977 10308y cualquier resultado mayor que dicho n umero generara un error de overow (o sera al-macenadocomoInf,seg unelentorno).la distanciaentre el n umero 1 (representablede forma exacta) y el n umero inmediata-mente mayor representable de forma exacta (esta distancia se almacena en la constanteepsenOctaveyMATLAB,yhabitualmentesedenominaepsilondelamaquina)es252 2.2204 1016De estemodo, el simplealmacenamientodel resultadode unaoperacion origina un errorde redondeo (que, en terminos relativos, es inferior a la constante eps descrita). El efecto queeste error tiene sobre el resultado nal del conjunto de operaciones asociado a la programaciondeundeterminadometodonumericodependededoscuestiones:delasoperacionesquetenganlugar(existenoperacionesquesonespecialmentesensi-blesaloserroresderedondeo),ydecomoestanorganizadosloscalculos(pueselalgoritmopuedehacerqueseampli-quenonoloserroresderedondeoenlaevoluciondeloscalculos).1.3. ANALISISDEERRORES 17As, unaoperacionespecialmentedelicadaenrelacionconloserroresderedondeoeslarestadedoscantidadesmuyproximas, quedalugaraimportantesperdidasdeprecision.Estoocurreporqueelresultadocontendraunn umerodecifrassignicativassensiblementemenorquelasvariablesqueseoperan.Considerese, por ejemplo, la evaluacion (directa) de f(x) =x2+ 11. Dicha evaluacionseraimposiblesi seempleadobleprecisioncuando [x[< eps 1.5108(salvoqueseempleen bits de proteccion) y producira importantes errores de redondeo para [x[ > 1.5108pero [x[ x: calcularc (a + b)/2 yf(c) sif(a)f(c) < 0 :tomarb cen otro caso:2.3. METODODEBISECCION 37Fxabc1c2 c30Figura2.10:Interpretaciongracadelmetododebisecciontomara cterminarNormalmentesea nadeunsegundotestdeparadaquecompara [f(c)[conf(sielvalorde [f(c)[ esmuypeque noquerradecirquecestaproximoalaraz, salvoqueel problemaestemalcondicionado),demodoqueelalgoritmoqueda:parai = 1, 2, . . . calcularci (ai + bi)/2 yf(ci) si [f(ci)[ < f :tomarx ciy terminar sif(ai)f(ci) < 0 :tomarai+1 ai,bi+1 cien otro caso:tomarai+1 ci,bi+1 bi si [bi+1ai+1[ < x:tomarx ai+1 + bi+12y terminar38 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLEterminar ennNota2.2Ademas,com unmenteenlapractica:- sea nadeuntestinicialsobresignosdef(a)yf(b)- se preere comparar signo(f(ai)) y signo(f(ci)) (que solo necesita comparar dos bits) ynoevaluarsigno(f(ai)f(bi))(querequiere,ademas,unproductoquenoesnecesario).Es facil ver que si fes continua los intervalos [ai, bi] seguiran conteniendo (al menos) unarazdef,demodoquetomandoci= (ai + bi)/2comosuaproximacionsetendra:[x cn[ 12[bnan[ =14[bn1an1[ ==12n[b1a1[que permite establecer unacotade error (absoluto) ycalcular el n umerode iteracionesnecesariasparaalcanzarunaciertaprecisionx,puesparaasegurarque12n[b1a1[ xbastacontomarel(primer)valordentalque2n [b1a1[xestoesn log([b1a1[) log(x)log(2)A continuacion se recoge un resultado formal de convergencia (cuya informacion ya estabacontenida,entodocaso,enloscalculosqueseacabandeefectuar):Teorema2.3Sea funa funcion continua sobre el intervalo [a0, b0] y tal que f(a0)f(b0) < 0.Sean ann=0, bnn=0y cnn=0lassucesionesgeneradasporel metododebiseccion, deacuerdoconlasnotacionesanteriores.Entonces,denotandomediantexunarazdefen[a0, b0],setienei) lmnan=lmnbn=lmncn= xii) [xcn[ 2(n+1)(b0a0)Demostracion: Enprimer lugar, any bnsonsucesiones monotonas yacotadas, quedebentenerelmismolmitepueslmnbnlmnan=lmnb0a02n= 0Porotrolado,denotandoxallmitecom unypasandoallmiteen0 f(an)f(bn)(fcontinua)seobtiene(f(x))2 0y,portanto,f(x) = 0.2.3. METODODEBISECCION 39Fxab0f(x)Figura2.11:DivisionoptimadelsubintervaloAlgunasobservacionesSetratadeunmetodorobusto(adecuadoparaunab usquedaglobal,ycomotalem-pleadoenmuchosprogramas),peroconunaconvergenciarelativamentelenta(porloque, enlapractica, secombinaconotrosmetodos). Unasimplemejoraseradividirdeotromodoel intervalocuandoesclaroquelarazestam ascercadeunextremo(algo esperable cuando los valores absolutos de la funcion en los dos extremos son muydistintos, talycomoseilustraenlagura2.11).Estoesloquehace,porejemplo,elalgoritmodeBrentimplementadoenlafuncionfzerodeMATLAB.Esimportanterecordarlashipotesisdel teoremadeBolzanoparaemplearcorrecta-mente el metodo. Se debe haber separado una raz (el metodo solo puede calcular una)conf(a)f(b) < 0(encasocontrario,nopodraarrancarotendraqueiniciarunalentab usquedadel intervalo, como hace la funcion fzero de MATLAB). Ademas la funcionfha de ser continua(en otro caso, el programa podra confundir una singularidad conunarazenelcriteriosobrex).Lacombinaciondeloscriteriossobrexyfpuedepermitirdetectarlosproblemasmal condicionados (puesto que en ellos el criterio sobre fse satisface facilmente,peronoelcriteriosobrex).40 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLEF0xbaf(x)Figura2.12:Inexistenciaderazenelintervalo0FxF(x)Figura2.13:Problemamalcondicionado2.4. METODODENEWTON-RAPHSON 41Fx0Pn(x)xnf(x)Figura2.14:InterpretaciondelmetododeNewton-Raphson2.4. MetododeNewton-RaphsonComosevera,elmetododeNewton-Raphsonpresentaunascaractersticascomplemen-tariasalasdel metododebiseccion. Lamotivaciondel metodoeslasiguiente(entreotrasmuchas):nodisponemosdetecnicasanalticaspararesolverdeformaexactalaecuacionf(x) = 0cuando fes una funcion cualquiera, pero s cuando fes muy simple:un polinomio de gradounoodos. As, podramosconsiderarel casomassencillo(tambienexisteunmetodoqueempleael otrocaso)yseharanecesariosustituirlafuncionfporunpolinomiodegradounoqueaproximeaf.Laeleccionparecefacil:elpolinomiodeTaylordegradouno(enelentornodeunaaproximaciondelaraz x).Seaentoncesxnunaaproximaciondex. Secalcularaxn+1(conlaesperanzadegenerarunasucesionqueconverjaax)resolviendoPn(xn+1) = 0dondePn(x) = f(xn) + f(xn)(x xn)As,esfacilverqueseestagenerandounasucesion:xn+1= xnf(xn)f(xn)Lagura2.14muestraunafuncionf(x),elpolinomiodeTaylordegradounoparaunaciertaaproximacionxndelarazylainterpretaciongracadeliterantexn+1.Algunasobservaciones42 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLEF0f(x)Pn(x)xxnFigura2.15:DicultadesdeconvergenciadeNewton-RaphsonEnlaprogramaciondel metodoseincluirantest deparadasobrex(operarancon[xn+1xn[) y sobre f(operaran con f(xn)). De nuevo, la relacion entre ambos esta li-gadaal condicionamiento del problema, aunque ahorase tiene acceso directo aelpuesdebecalcularseexplcitamentef(xn)(y lmnf(xn) =f(x)si f esregularylmnxn= x).Observeseque,enefecto,enlosproblemasmalcondicionadosloserro-resderedondeoseamplicarannotablemnente(al dividirporn umerospeque nos).Enelcasolmite,conf(x) = 0,tambiensedeterioraelerrordetruncamiento(conunaperdidadeunordenenlaconvergencia).Gracamente, yasepuedeverqueel metodosolofuncionarabiensi searrancacercadexpuesenotrocasoelresultadodeunaiteraciondelmetodopuedellevarnosa unmas lejos de la raz (considerese, por ejemplo, una iteracion desde xnen la gura 2.15).Convergencia(local)delmetododeNewton-RaphsonSidenimoselerror(absoluto):en= xnxsetieneen+1= xn+1x= xnf(xn)f(xn) x= enf(xn)f(xn)=enf(xn) f(xn)f(xn)EmpleandoahoraeldesarrollodeTaylor:0 = f(x) = f(xnen) = f(xn) enf(xn) +12 e2nf(n)seobtieneen+1=12 e2nf(n)f(xn)2.4. METODODENEWTON-RAPHSON 43yesperamosqueconformeseacerquexnaxsetenga:en+1=f(n)2f(xn) e2n f(x)2f(xn) e2nEsposibleentoncesprobar:Teorema2.4(convergencialocaldelmetododeNewton-Raphson)Supongamos quefes de clase C2en unentorno de xy que xes unaraz simple de f(estoes f(x) ,= 0). Entonces existe un entorno (x, x+) tal que si se toma x0 (x, x+)setienei) lmnxn= xii) C> 0tal que [xn+1x[ C [xnx[2,n 0Demostracion: Elapartadoii)esinmediato(apartirdeloscalculosanteriores)sixn+1noabandona(x, x +)empleandounaacotaciondef(n)2f(xn).Bastaelegirdemodoque[en+1[ < si [en[ < (estoes,si xn (x, x +) entoncesxn+1tambiendeberaestar en(x, x + ));comoen+1=f(n)2f(xn) e2nsidenimosc() =12max|xx|[f(x)[mn|xx|[f(x)[essucienteimponer c() < 1pues[en+1[ =[f(n)[2[f(xn)[e2n c() 2< Observesequesiemprepuedeelegirseconestacondicionyaquelmz0z c(z) = 0pueslmz0c(z) =12f(x)f(x)Elapartadoi)esahorafacildeobtenerpues[en+1[ c() [en[2 c() [en[yllamando = c() seobtiene:[en+1[ [en[ 2[en1[ n+1[e0[deformaquealpasarallmite(con < 1):lmn[en+1[ = 044 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLECabehacerahoraalgunasobservaciones:Aunque la demostracion anterior es constructiva y devuelve una estimacion del parame-tro, enlapracticaesdenulaayuda(puesobligaraaresolverproblemasmascom-plicadosquelab usquedadelarazparaencontrarel parametro). Soloenalgunassituacionesmuyconcretasesposibleobtenerresultadosprecisossobreel dominiodeatraccion delmetodohaciaunarazparticular(veaseresultadode convergenciaglobalacontinuacion,queexplotalossignos dealgunas derivadas).Ademas,los dominiosdeatraccionpuedenserbastantecomplejos(veasecomentariosobreextensionalcalculoderacescomplejasyejemploqueilustralaportadadel textodeKincaid-Cheney).Esta situacion es todava mas complicada cuando se considera la extension a la resolu-cion desistemasy conducea lanecesidaddeajustarelpaso(medianteeldenominadometododeNewtonamortiguado:dampedNewton).El resultadodeconvergenciacuadraticaes de graninteres desde el puntode vistacomputacional e impone enla practica, grossomodo, que el n umero de decimalesexactosdelaaproximacionsedoblaconcadaiteraciondelmetodo.As,sisearrancadeunaaproximaciontalque [e0[ 102setendra:[e1[ C [e0[2 C 104[e2[ C [e1[2 C2108[e3[ C [e2[2 C31016Si paraunciertoproblema(facil)setieneC 1entoncesarrancandoconunerrordel ordende102entresiteracionesyasealcanzaunaprecisionequivalentealadelalmacenamientoencomaotantecondobleprecision.Ejemplo2.4(tomadodel textodeKincaidyCheney)Paraunn umerorealpositivorseconsideraelcalculodesurazcuadradacomosoluciondelaecuacionx2r = 0medianteel metododeNewton-Raphson(dondesetomaraf(x) = x2r):xn+1= xnx2nr2xn=12(xn +rxn)Si setomar=17ysearrancaconx0=4(e0 101)seobtieneparalos4primerositerantes:2.4. METODODENEWTON-RAPHSON 45x1= 4.12x2= 4.123106x3= 4.1231056256177x4= 4.123105625617660549821409856donde se han representado, en cada iterante, solo los dgitos calculados exactamente (observe-sequepararetener todalaprecisionobtenidaenx4yaesnecesariounalmacenamiento maspreciso que el aportado por la norma ANSI/IEEE de doble precision; cabe mencionar aqu quealgunoslenguajesdeprogramacioncomofortran90y95permitenmanejarvariablesconprecisionarbitrariodeunmodofacilmenteportable).Dehecho,larapidaconvergenciadeesteesquema(quesoloempleasumasyproductos)hace que se utilice con frecuencia para implementar (en software de muy bajo nivel) la funcionrazcuadradaenlosprocesadores.Aunque,comoseveraposteriormente,paraestecasolasiteracionesdel metodoconvergenparax0>0cualquiera, el hechodequelaconvergenciacuadratica no sea especialmente rapida lejos de la raz hace que en la practica se combine contecnicas delocalizaciondelarazparaarrancarelcalculoconunerrorinicialrelativamentereducido(observesequeestastecnicaspuedensermuyrapidasyaquepuedendevolverunaaproximaciondelarazapartirdelalecturadelosprimerosbitsenlarepresentacionencomaotante).Enrelacionconlaconvergencialocaldel metodosetieneparaesteejemplo:C=12max|xx|[f(x)[[f(x)[ 12[f(x)[[f(x)[=1222x=1217 0.1213lo que justica la convergencia especialmente rapida (no obstante, observese que en el calculode laraz cuadradaesasituacionnoserararayaque de hechoC0conx ),ganandoseconcadapasoundecimaladicionalalosprevistos.ConvergenciaglobaldelmetododeNewton-RaphsonComosehacomentadoanteriormente, enciertassituaciones(aunqueraras)esposibleasegurar un ciertoconjunto donde arrancar el metodo de Newton-Raphson con la seguridaddequelasucesiongeneradaconverja.Acontinuacionseexponeunadeestassituaciones:Teorema2.5(convergencia(global)delmetododeNewton-Raphson)Seaf: [a, b] RdeclaseC2([a, b])ytal que:f(x) > 0, x (a, b)f(x) > 0, x (a, b)f(a)f(b) < 046 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLEF0xabf(x)Figura2.16:ConvergenciaglobaldelmetododeNewton-RaphsonEntoncesftieneexactamenteunarazen(a, b)yelmetododeNewton-Raphsonconvergeaella para cualquier iterante inicial x0en (a, b), siempre que el primer iterante x1se encuentreen(a, b).Demostracion:Laideadelademostracionesfacilde comprendersiseacudealarepresentaciongracadelmetodo(veaselagura2.16)Enprimer lugar, si seconsiderael calculodel primer iterantex1apartir dex0cabedistinguirdossituaciones:i) x0>x ; encuyocaso, comoseveraposteriormente, quedaragarantizadoque x1 (x, x0)yporlotanto,elprimeriterantesiempreestadenidoen(a, b).ii) x0< x ;ahoraveremosqueessucienteimponer[f(a)[f(a)< b aparaasegurarx1= x0f(x0)f(x0) a f(a)f(a)< a + b a = bObservese,en el apartado ii), que para vericar la primera desigualdad, basta con acudiralaspropiedadesdeF(x) = x f(x)f(x)(veaselagura2.17)puesF(x) = 1 f(x)f(x) f(x)f(x)(f(x))2=f(x)f(x)(f(x))2con F(x) < 0 si x < xy F(x) > 0 si x > x. As, junto con F(x) > x si x < xy F(x) < xsix > x,seconcluyelaacotacionbuscada.2.4. METODODENEWTON-RAPHSON 47F0xabbF(x)Figura2.17:ConvergenciaglobaldelmetododeNewton-RaphsonDeestemodo, paraqueel primeriteranteestebiendenidobastaconasegurarqueloestasiarrancamosconx0= a(o,enlapracica,sielegimosademodoqueloeste).Unavezvericadaestahipotesisobservesequee1= e2012f(0)f(x0)> 0demodoque,independientementededondesearranque,trasunaiteracionseobtiene:x< x1< b(talycomosecompruebagracamentedemodoinmediato).As,teniendoencuentaquetodoslossiguientesterminosdelasucesionestanen(x, b)puestoqueen+1= e2n12f(n)f(xn)> 0yque,porotrolado(fescrecienteyf(x) = 0):en+1= enf(xn)f(xn)< enlasucesiones acotadaymonotonadecreciente. Por lotanto, existe lmite, tantoparalasucesion xncomoparalasucesion envericandosuslmitese= ef(x)f(x)yenconsecuencialmnxn= x48 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLEEjemplo2.5Retomandoel ejemploanterior(calculoderacescuadradas)esfacil verqueparaf(x) =x2 r bastatomar[a, b] =[, K] conKsucientementegrandeylosu-cientementepeque no(enlapracticapodemosadaptarelteoremaanteriorparaconsiderarelcaso[a, +); enKincaid-Cheney,el resultadosedemuestradehechoparaf: R R, loquesimplicalashipotesis)paracomprobarquesetienenlashipotesis delteoremaanterior.Recuerdeseque, entodocaso, nosesueleemplearel metododeNewtonparaarrancarloscalculos(puesnoesrapidolejosdelaraz).ObservacionessobreelcalculodeladerivadaPuestoqueel metodonecesitadel calculodeladerivadanoresultaaplicablesi estanoseencuentradisponible(porejemplocuandoel valorseobtienedealg uncodigocuyafuentenoesaccesibleoinclusodemedidassobreunsistemafsico)osucalculoesdemasiadocostosoocomplejo(porejemplo, existenherramientasquepermitenelcalculo automatico de las derivadas en codigos de los cuales tenemos acceso a las fuentescomoADIFORparacodigos enFortranperoes precisogenerar el nuevo codigoycompilarlo). Enestoscasosa unresultaposibleemplear derivacionnumericaparaestimarlasderivadas, perocomoseveraposteriormente, resultarapreferibleacudiraotrosmetodos(comolosmetodosdetiposecante).La evaluacion de la derivada resulta, en general, bastante mas costosa que la evaluaciondelafuncion(pienseseenladerivaciondeunaexpresionnodemasiadosimple). As,enlapractica,avecesnoseactualizaelvalordeladerivadaconcadaetapasinoquesemantienejoduranteuncierton umerodeetapas.Sebuscaasunaaceleraciondeloscalculosacostadeundeteriorodelaspropiedadesdeconvergencia(demodoquesedeberagarantizarqueparael problemaencuestiondichamodicacionmejoralaspropiedadesglobales). Estatecnicaseramuyhabitual enlaextensiondel metododeNewtonparasistemasdeecuaciones.ObservacionsobrecalculoderacescomplejasElmetododeNewton-Raphsonpuedeextendersealcalculoderacescomplejas(defun-cionesconsideradasahoracomofuncionesdevariablecompleja), paralocual bastaoperaren aritmeticacompleja (tomando la derivadacomo derivada en el campo complejo). La pro-piedadde convergencialocal seextiendeademasalaversi oncompleja del metodo(no aslapropiedaddeconvergenciaglobalqueemplearesultadosdelanalisisreal).Porotrolado, laversioncomplejadel metododeNewton-Raphsonpermitemostrardeformagraca(adiferenciadel casoreal dondeesmenosilustrativa)lasdicultadesenelcomportamientoglobaldelmetodo.As, si se considerael calculo de las races del polinomioz31, las iteracionesconvergen2.5. METODODELASECANTEYVARIANTES 49acadaraz:z1= 1, z2= 1 +3 i2, z3= 1 3 i2siemprequesearranquecercadeella, peroconvergeaotrarazonoconvergesi lohacenotancerca(el conjuntodepuntosparaloscualeselesquemanoconvergesedenominaelconjunto de Julia y constituye la frontera de cada cuenca de atraccion). La portada del textodeKincaidyCheneyilustracon3coloreslascuencasdeatraccion(conjuntosabiertos)decadaunadelas3raceseilustraperfectamentelasdicultadesdeconvergenciaglobal delmetododeNewton.2.5. MetododelasecanteyvariantesLos metodos que se van a presentar a continuacion (y otros muchos no mencionados aqu)buscanunaspropiedadesdeconvergencialomasparecidasposiblesal metododeNewton-Raphson,perosinnecesidaddeevaluarladerivada(porquenoestadisponibleoescostosadeevaluar)altratarconaproximacionesnumericasde esta.2.5.1. MetododelasecanteSuponiendoqueyahansidocalculadosal menosdosterminosdeunasucesion(queseesperaconverjaax)xn1yxn, el metododelasecanteproponesustituirel iterantedelmetododeNewtonxn+1= xnf(xn)f(xn)poresteotro(queempleaunaaproximaciondeladerivada)xn+1= xnf(xn)xnxn1f(xn) f(xn1)talycomoseilustraenlagura2.18Observeseque, conformexnseacerqueax(si esqueestoocurre)laaproximaciondeladerivadaescadavezmejorpero,almismotiempo,sedebetenercuidadoconlaperdidadeprecisiondebidoaladivisionporunn umeropeque no.Porotrolado, el metododelasecantepresentaenprincipioparecidasdicultadesdeconvergencia global a las del metodo de Newton-Raphson. Posteriormente se vera (meto-do de regula falsi) como resolver estas dicultades a costa, eso s, de una nueva perdidadevelocidaddeconvergencia.Nota2.3Apesardel comentarioanterior,enlapracticael metododelasecantepresentamenosdicultadesdeconvergenciaglobal queel metododeNewton-Raphson,especialmente50 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLEx0fFigura2.18:EsquemadelmetododelasecanteF0f(x)xx1x0 x2x3Figura2.19:Ejemplodeconvergenciaglobaldelmetododelasecante2.5. METODODELASECANTEYVARIANTES 51si searranca(comoeshabitual)desdelosextremosdeunintervaloqueencierraunarazseparada. As, enel ejemplodelagura2.19, el metododeNewton-Raphsonarrancandodesdex0ox1noconvergealaraz,perosel metododelasecante.Acontinuacionsepresentaunteoremaqueaseguralaconvergencialocal del metodoyestimael deteriorodelaconvergenciacausadopor el empleodeunaaproximaciondeladerivada(porcomparacionconelmetododeNewton).Teorema2.6(convergencialocaldelmetododelasecante)Supongamosquef esdeclaseC2enunentornodexyquexesunarazsimpledef.Entonces,existeunentorno(x , x + )tal quesisetomanx0, x1 (x , x + )setiene:i) lmnxn= xii) C> 0tal que [xn+1x[ C[xnx[,n 0con = (1 +5)/2 1.62Demostracion: Lademostracionessemejantealacorrespondienteal metododeNewton-Raphsondemodoquesoloseincluyelaobtenciondelorden.As,setomaen+1= xn+1x=f(xn) xn1f(xn1) xnf(xn) f(xn1)x=f(xn) en1f(xn1) enf(xn) f(xn1)Sacandofactorcom unen1enymultiplicandoydividiendoporxnxn1seobtieneen+1=xnxn1f(xn) f(xn1). .an1enf(xn) 1en1f(xn1)xnxn1. .bnenen1dondeesfacilverqueanpuedeescribirsecomo1f(n),entantoqueparabnempleando:1enf(xn) =1enf(x + en) =1en0 + f(x)en +12f(1n)e2n1en1f(xn1) =1en1f(x + en1) =1en10 + f(x)en1 +12f(2n)e2n1juntocon xnxn1= enen1se obtiene(puedenconsultarselos detalles,por ejemplo,eneltextodeKincaidyCheney):bn=12f(1n)enf(2n)en1enen1=12f(n)paraalg unnintermedio(entre1ny2n),demodoquesixn1yxnestanproximosaxbn 12f(x)52 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLESetiene,ensuma:en+1=12f(xn)f(n)enen1Porlotanto,enellmite,en+1 C enen1conC=12f(x)f(x).Supongamosahora(andecompararlavelocidaddeconvergenciadeestemetodoconelmetododeNewton)queen+1 Cen(quecorrespondera,deacuerdoconladenicionqueseveraposteriormente, aunaconver-genciaconorden),demodoqueasuvezen Cen1.Setieneentoncesporunladoqueen+1 C enen1al tiempoque(deacuerdoconlahipotesishecha)en1 (1C en)1/yasseconcluyeque,siestahipotesisfuesecierta,entoncesen+1 C(C)(1/)e(1+1/)nComparandoahoralasdosexpresionesdeen+1setieneCen C(C)(1/)e(1+1/)nysecompruebaquelahipotesishechaseraciertasiysolosi:(C)(1+1/)= C y = 1 +1devolviendoestasegundaecuacion: =1 +52.Ensuma,sehaobtenidoentonces:en+1 _12f(x)f(x)_1endondesehaempleado:11 +1=1= 1 0.62Nota2.4RecuerdesequelaconstanteCtambientienesurelevanciaenlavelocidaddeconvergencia. Si comparamos los resultados parael metodode lasecanteyel metododeNewtonseveque:2.5. METODODELASECANTEYVARIANTES 53a) C< Cenlosproblemasfaciles(dondeC< 1)b) C> Cenlosproblemasdifciles(dondeC> 1)loqueconrmalamayorrobustezdel metododelasecante.Seintroducea continuacionladenicionde ordende convergenciaqueresultarade granutilidadalahoradecomparardosmetodos.Denicion2.1(ordendeconvergencia)Sea xn unasucesiongenerada por unciertometodo numerico, que converge a unvalor x.Sedenominaordendeconvergenciaalmayorn umeroreal qtal queel lmitelmn[xn+1x[[xnx[qexisteyesdiferentedecero.Observesequepuedeocurrirquetal n umeronoexista. As, porejemplo, noexisteengeneral paralas sucesiones de puntos medios generados por el metodode biseccion. Sinembargo, s existe para las sucesiones generadas por un gran n umero de metodos (a condiciondequeelproblematratadoseasucientementeregular).El orden de convergencia es una propiedad muy importante de los metodos. As, junto conla robustez (y, en menor medida, el coste de calculo) constituye la propiedad mas importante.Permite, porejemplo, predecirel n umerodedecimalesexactosganadosconcadaiteraciondelmetodounavezqueseestacercadelaraz.Recordando ahora los resultados de convergencia(local) del metodo de Newton-Raphsonyelmetododelasecante,setiene:MetododeNewton-Raphson : [xn+1x[ C [xnx[2Metododelasecante : [xn+1x[ C[xnx[con 1.62 y C= C1. As, de acuerdo con la denicion de orden, el metodo de Newton-Raphsonesunmetododeordendosperoel metododelasecanteessolodeorden. Deestemodo,aunqueelmetododelasecanteesalgomasrobustoqueel metododeNewton-Raphson,unavezcercadelarazeste ultimometodoconvergeramasrapidamente.Nota2.5Como se ha visto, la sustitucion de la derivada (en el metodo de Newton-Raphson)por unaaproximacion de estalleva aunareducciondelordendeconvergencia. Sinembargo,tambiendebetenerseencuentaqueel costedecalculoinvolucradoes distinto. Concadanuevopasoel metododeNewton-Raphsonnecesitacalcularf(xn)yf(xn)entantoqueelmetododelasecantesolorequierecalcularf(xn). Enaquellassituacionesdondeel calculodef yfseatancomplejoquepracticamenteconsumatodosloscalculos, serarazonable54 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLEcompararunpasodel metododeNewton-Raphsoncondospasosdel metododelasecante.AsMetododeNewton-Raphson : [xn+1x[ C [xnx[2Metododelasecante : [xn+1x[ C (C[xn1x[)demodoque[xn+1x[ (C)1+[xn1x[2con2 2.62.Resultaraentoncespreferibleporrazonesdeconvergencia(local)el metododelasecante.2.5.2. MetododeregulafalsiComosehamencionado,elmetododelasecantepresentabasicamentelasmismasdi-cultadesdeconvergenciaglobal queel metododeNewton-Raphson(vease, noobstante, lanota 2.6 mas adelante). Sin embargo, el hecho de que base la aproximacion de la derivada enunaparejadepuntospermitesumodicacionparaasegurarquelaparejadepuntosencajelaraz.Estaeslaideadelmetododeregulafalsi,quegeneraunasucesion xnapartirdedosvaloresinicialesaybtalesquef(a)f(b) < 0delaformasiguiente: tomarx0 a, x1 b paran = 1, 2, . . .tomar xn+1 xnf(xn)xnxmf(xn) f(xm)donde m = m(n) mayor ndice (menor que n) tal quef(xn)f(xm) < 0terminar en nDesdeluego,aestaversionbasicadelalgoritmoselea nadiranloscorrespondientestestdeparada.Es posible interpretar este metodo como un metodo de biseccion donde, en vez de dividir elintervalo por la mitad se intenta acelerar los calculos dividiendopor el punto de interseccion(conel ejedeabscisas) delarectaqueunelosvaloresenlosextremos (veasenota2.7).As, el intervalodenidoporxnyxmencajasiemprealaraz(evitandolosproblemasdeconvergenciadelmetododelasecante).Nota2.6Comotambiensehacomentadopreviamente, noesestrictamenteciertoqueelmetodo de la secante presente las mismas dicultades de convergencia global que el metodo deNewton.Si searrancaelmetodo encajandounaraz,el metodo resultabastantemasrobusto2.5. METODODELASECANTEYVARIANTES 550xfx0f(x)x1 x2Figura2.20:Dicultadesdelmetododelasecantequeelmetodo deNewton.Dehecho, enestasituacion, laprimeraiteracion(yquizas algunamas)coincideconelmetododeregulafalsi.Encualquiercaso,sesfacilenga naralmetododelasecante(comoal deNewton), porejemploconf(x) =ln(x)xcomoseobervaenlagura2.20.Nota2.7Observeseque cabe esperar que el metodode regulafalsi propongaunamejordivisiondel intervalo [a, b]paraencajar laraz queelmetodo debiseccioncuandolos valores[f(a)[ y [f(b)[ sonmuy distintos. Sinembargo, debe al mismotiempoobservarse que ladivisionpropuestapor el metododeregulafalsi soloseraadecuadasi fes reducida; enotrocasoserapreferibleemplearunainterpolaciondemayororden, comohaceel metododeMulerqueutilizaunainterpolacioncuadratica.As,esdeesperarquesisearrancacercadelaraz(conlascontribucionesdefpocoimportantes)el metododeregulafalsimejoreel comportamientodel metododebiseccion(observeselagura2.11).Sinembargo,lejosdelarazoconfcomplicadanotieneporquemejorar.Acontinuacionseenunciaunresultadodeconvergenciadelmetododeregulafalsi.Teorema2.7(convergenciadelmetododeregulafalsi)Seaf: [a, b] RdeclaseC([a, b]).Supongamosquef(a)f(b) < 0yque[a, b] contieneuna unicarazx. Sea xnlasucesiongeneradaporel metododeregulafalsi (prolongadaporxlsif(xl) = 0).Entoncessetiene:i) lmnxn= xii) C> 0tal que [xn+1x[ C [xnx[ , n 1iii) El metodonotieneordenmayorqueuno.56 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLEDemostracion: Vease el texto de Ralston y Rabinowitz AFirst Coursein Numerical Analy-sis.Observeseque,aligualqueenelcasodelmetododebiseccion, setratadeunresultadotantolocalcomoglobaldeconvergencia.Comose ve,el costede larobustez ganadacon el metododeregulafalsi implicavolveraunavelocidaddeconvergenciasimilaraladel metododebiseccion(encuantoasuorden,pues como se ha comentado, se espera que el metodo de regula falsi necesite menos iteracionesqueelmetododebiseccionalmenoscercadelaraz),apesardequesucomplejidad(yporlotanto,sucostedecalculo)essimilaraladelmetododelasecante.A continuacion se ilustra, medianteuna pareja de ejemplos,el comportamiento tpicodelosmetodospresentados.Ejemplo2.6Considereseel siguienteejemplo(tomadodel textoNumerical Mathematicscitadoal naldel tema):Encontrarla unicarazpositivade(veaselagura2.21)cos2(2x) x2= 0empleandolosmetodos:biseccionregulafalsisecanteNewton-Raphsonparalos siguiente casos (donde seespecica el intervaloinicial paralos metodos debisecciony regula falsi, que sirve tambien como pareja inicial de iterantes para el metodo de la secante,oeliteranteinicialparaelmetododeNewton):a) a0= 0yb0= 3/2ox0= 3/4b) a0= 0yb0= 10ox0= 5yx= 1012comotestdeparada.Observesequeesfacilobtenerlaexistenciayunicidaddesolucionen(0, /4)puesf(0) = 1 > 0f(/4) = (/4)2< 0yademasf(x) = 2(sen(4x) + x) < 02.5. METODODELASECANTEYVARIANTES 570 0.2 0.4 0.6 0.8 110.500.51xFigura2.21:Funcionf(x) = cos2(2x) x2eneseintervaloyaquesen(4x) > 0parax (0, /4).Porotrolado,esfacil verquef(1) < 0yademasf(x) < 0parax > 1demodoquenopuedenexistirracesconx > 1yaquealserfdeclaseC1:f(z) = f(1) + f()(z 1) < 0 para z> 1.Por ultimo,en(/4, 1)fsolotieneunextremoqueesademasunmnimodemodoquetambienf(x) 0 conn yenconsecuencialmn[Snx[[xnx[= 0Estaideadel algoritmo de Aitkenes extendiblea todos aquellosmetodos para los cualesse dispone de unaexpresionasintoticadel error yaque ental casoseraposible estimarlas constantes implicadas ycalcular as unacorreccionconloquemejorar losresultadosnumericosobtenidosconesemetodo. Dehecho(verIsaacson-Keller, pag. 102)si seaplicalaexpresiondelaaceleraciondeAitkenaunmetododeiteracionfuncional simple (porejemplo,elmetododeNewton-Raphson)con unorden p 2, entonceslasucesiongeneradaconvergeconorden2p 12.7. CodigosdisponiblesPuestoque los metodos generales para la aproximacion de races de funciones (escalares)sonrelativamente sencillos deprogramar, es habitual que, cuandose necesitaincorporarunodeestosmetodos, seprogramenenvezdebuscaruncodigoyaescrito. Sinembargo,s se pueden encuentrar codigos programados (y depurados!) para la resolucion de ecuacionesescalares.Los codigos mas extendidos se basan el denominado metodo de Brent, que consiste en unacombinaciondelmetodode biseccioncon metodosde interpolacion(queincluyenelmetodo2.8. REFERENCIAS 63delasecanteyvariantesdeordensuperior)quebuscanhacerunadivisionlomasecienteposibledel intervaloqueencierralaraz(estoes, unareduccionlomasrapidaposiblededichointervalo). Puedenconsultarselosdetallesdeestemetodo, porejemplo, enel textoNumerical Mathematicscitadoalnaldeestetema.As, por ejemplo, labibliotecaGNUScientic Library(que yafue mencionadaenelprimertema)incluyelafunciongslrootfsolverbrentyMATLABincorporalafuncionfzero, ambasbasadasenel metododeBrent(OctaveyScilab, comoveremos, contienenfuncionesmasgenerales, quepermitenlaresoluciondesistemasdeecuacionesnolineales,algodeloquecareceMATLAB).Encualquier caso, puedenencontrarse mas funciones para la resolucionde ecuacio-nesescalaresenlaguaGuidetoAvailableMathematical Software, alojadaenladireccionhttp://gams.nist.gov/, enel apartadoSolutionof singlegeneral nonlinearequationsenhttp://gams.nist.gov/serve.cgi/Class/F1b/.2.8. ReferenciasD.Kincaid;W.Cheney;An alisisNumerico.LasMatem aticasdel C alculoCientco. Addison-WesleyIberoamericana, 1994.Existe una edicion actualizada de este texto titulada Numerical Analysis: Mathematicsof Scientic Computing. 3rd ed. publicada por Brooks/Cole en 2002, de la que no existea untraduccion.A. Quarteroni; R. Sacco; F. Saleri; NumericalMathematics: Springer, 2000.A.Ralston;P.RabinowitzFirstCourseinNumerical Analysis.McGraw-Hill,1965.Existeunatraduccionalcastellanodeestetexto(editadaporLimusaen1970bajoelttuloIntroduccional analisisnumerico)yunareimpresion(del a no2001)del textooriginalenlaeditorialDover.64 CAPITULO2. RESOLUCIONNUMERICADEECUACIONESDEUNAVARIABLECaptulo3Resoluciondesistemasdeecuacioneslinealesynolineales3.1. MotivacionExistenmultituddeproblemasqueconducendirectamentealaformulaciondesistemasdeecuacioneslinealesonolineales(eneste ultimocaso, laresolucionpasahabitualmenteporresolverunasucesiondesistemasdeecuacioneslineales)detama nosmuydiversos:enanalisisdecircuitos(consistemasqueenloscasossencillosirande10a100ecua-ciones pero cuyo tama no sera mucho mayor en bastantes ocasiones, como en el caso decircuitosintegrados)en analisis de redes telematicas o redes electricasde potencia (con sistemasde tama nomuyvariados,desdeunaspocasdecenashastamillonesdeecuaciones)en discretizacion de modelos distribuidos regidos por ecuaciones en derivadas parcialesendominioscomolaac usticaoelelectromagnestismo(consistemasenproblemas2Dentre103y105ysistemascon105o106ecuacionesparaproblemas3D)Ademas, laresoluciondesistemas deecuaciones linealesonolineales apareceencasitodoslosmetodosnumericosenalgunapartedeloscalculos(porejemplo, enlosmetodosnumericosparalaintegraciondeproblemasdevalorinicial asociadosaecuacionesdiferen-ciales ordinarias, existe un grupo ampliode metodos, que denominamosmetodos implcitos,quenecesitanresolverunsistemadeecuacionesnolinealesencadapasodetiempo).Por otrolado, los grandes sistemas (muyfrecuentes, como se ha mencionado) enlapracticaplanteandesafosimportantesdesdeel puntodevistacomputacional. Esademasimportanteaprovecharelcaracterhuecohabitualdelasmatrices(delsistemaoriginalenelcasolinealodelalinealizacionencadaetapaderesoluci ondelcasonolineal):enredes (telematicas ode potencia), aunque el sistema contengaunn umeromuyelevadodenodos,lasentradasnonulasencadaladelamatriznolosonpuesestanrelacionadasconeln umerodenodosconectadosdirectamenteaunodado6566 Sistemasdeecuacioneslinealesynolinealesen discretizacion de EDPs el n umero de entradas no nulas en cada la esta relacionadaconlosnodosqueintervienenenlaaproximaciondelasderivadasycoincidetambienconlosnodosquemantienenunaciertaconectividadEstapropiedaddebeserforzosamentetenidaencuentatanto parael almacenamientocomoparalaresolucion:en almacenamiento, solo si se guardan exclusivamente las posiciones no nulas es posiblealmacenar la matriz. As, para un sistema con un millon de nodos se tiene una memoriadealmacenamientoencomaotantecondobleprecision:1061068 bytes = 8 103Gbyteslos metodos de resolucion deben tenerloen cuentapara minimizarlos calculos y adap-tarlos a la estructura de la matriz. En los metodos basados en factorizaciones (metodosdirectos)esprecisominimizarel denominadoll-inyadaptarel calculodelafac-torizacion. Enlosmetodositerativosdetipogradienteesprecisoconstruirdeformaecientelos productosmatriz por vector(sinalmacenarlamatriz completa)paraace-lerarloscalculos.3.2. CondicionamientodelproblemayclasicaciondelosmetodosEnestaseccionseconsidera, enprimerlugar, el estudiodel condicionamientodel pro-blemaderesoluciondeunsistemadeecuacioneslinealespara,acontinuacion, clasicarlosmetodosnumericosparalaresoluciondeestossistemas.CondicionamientodesistemasdeecuacioneslinealesComoentodoproblemaqueseresuelvenumericamente(y,enrealidad,entodomodeloqueseresuelve)esprecisoidenticarcualserael efectoquetendran loserroresderedondeo(y, si esposible, tambienloserroresdemodelado)enlasolucionnumericaobtenidaenlapractica(comoresultadodeunprogramaejecutadoenunordenador).Unmodoelementaldeestudiar esteefectoesanalizandocomoinuyelaperturbaciondeloselementos delamatrizoel vectoralasolucionobtenida. Unaalternativaesanalizarlarelacionexistenteentre el residuo (que en los denominados metodos directos constituye un modo de considerarlosredondeosyenlosmetodositerativosconstituiraunindicadordeerror)yelerror.Puestoque en cualquierade estas medidasaparece la necesidadde cuanticarel tama nodeunamatriz, esprecisocomenzarporlaconstrucciondenormasmatriciales. Recuerdeseque, dadounespaciovectorial V sedeneunanorma ||, comounaaplicacionconlassiguientespropiedades:3.2. CONDICIONAMIENTO DEL PROBLEMA Y CLASIFICACION DE LOS METODOS67(P1) |x| > 0, x V, x ,= 0(P2) |x| = [[ |x| R, x V(P3) |x + y| |x| +|y| x, y Vy las habituales normas ||1, ||2, y ||denidaspara el espaciovectorial RN. En elcaso de las matrices cuadradas es posible inducir normas (sobre el correspondiente espaciovectorial)apartirdelasnormasvectorialesgraciasalasiguientepropiedadProposicion3.1Silaaplicacion ||constituyeunanormasobreRN,entonceslaaplica-cion|A|M= sup xRN, x=1|Ax|constituyeunanormasobreelespaciovectorialdelasmatricesN N(quedenominaremosnormasubordinada)Demostracion:(P1) puestoqueAdebeteneral menosunacolumnadistintadecero, si setomax=ej(j-esimovectordelabase,conjigualaln umerodecolumnaA(j)nonula):|A|M |Aej|ej|| =1|ej||A(j)| > 0(P2)|A|M= supxRN, x=1|Ax| = [[ supxRN, x=1|Ax| = [[ |A|M(P3)|A + B|M= sup xRN, x=1|(A + B)x| supxRN, x=1(|Ax| +|Bx|) sup xRN, x=1|Ax| + supxRN, x=1|Bx| = |A|M+|B|MEnrelacionconlasnormasmatricialesesprecisohaceralgunasobervaciones:Deladeniciondenormasubordinadasedesprendeinmediatamente:|Ax| |A|M|x| , x RNqueconstituyeunapropiedadimportante.68 SistemasdeecuacioneslinealesynolinealesEsposiblecaracterizarlanorma | |como|A|=max1iNN

j=1[aij[Setieneque|A|= supxRN, x=1|Ax|= supxRN, x=1max1iN[N

j=1aijxj[= max1iNsupxRN, x=1[N

j=1aijxj[= max1iNN

j=1[aij[Paralasnormas | |1y | |2setiene|A|1= max1jNN

i=1[aij[|A|2=_(AAt) =max1in[i(AAt)[1/2loquelaconvierteendifcildecalcular,aunquesesabeque|A|2_|A|1|A|Consideremosahoraunaperturbaciondel terminodel segundomiembroyexaminemoselefectosobrelasolucion.Setiene:Problemaexacto: Ax =

bProblemaperturbado: Ax=

byparasudiferenciaA(x x) =

b

bobien,siAesregularx x= A1(

b

b)Siqueremosahoraunamedidarelativadebemoscomparar |x x|con |x|demodoqueempleando|

b| = |Ax| |A|M|x|obtenemosnalmente|x x||x|=1|x||A1(

b

b)| 1|x||A1|M|

b

b| |A|M|

b||A1|M|

b

b|3.2. CONDICIONAMIENTO DEL PROBLEMA Y CLASIFICACION DE LOS METODOS69estoes|x x||x| ( |A|M|A1|M )|

b

b||

b|Setieneasque |A|M|A1|Mofreceunacotasuperiorparalaamplicaciondelaspertur-bacionessobreelterminodesegundomiembro. Adichon umeroseledenominan umerodecondicionamiento delamatriz A y se suele representar por (A) (o simplemente si no hayambig uedadposible).Alternativamente, podemos considerar la relacion entre el error cometido en la resoluciondelsistema(|x x|) yla normadelresiduo(|Ax

b|), quees ademas,unelemento utilenlaelaboraciondecriteriosdeparadaparalosmetodositerativos(noestacionarios).SeanentoncesAx =

bAx=

b +rdedondeA(x x) = ryporlotanto,x x= A1r|x x| = | A1r| |A1|M|r|yenterminosrelativos|x x||x| ( |A|M|A1|M )|r||

b|de forma que el n umero de condicion de la matriz tambien sirve para medir esta amplicacion.Comoenlaresoluciondeecuacionesescalares, el condicionamientojuegaunpapel im-portanteenlaresolucionnumericadeloscorrespondientesproblemas. Enlapresentaciondelosmetodosparalaresoluciondesistemasdeecuacioneslineales(tantodirectoscomoiterativos) se insistira sobre el modo de evitar el deterioro de la solucion numerica por efectodel mal condicionamientodelasmatrices(puesunagranpartedelosproblemasasociadosagrandessistemas deecuacionesprovenientes fundamentalmentedeladiscretizaciondeecuacionesenderivadasparcialesestanmuymalcondicionados).Comoseveraademasenlosmetodositerativosel malcondicionamientodelasmatricesllevanosoloalaamplica-cion de los erroresde redondeosinoa impedirla convergenciapracticade los metodos (y deah la necesidadde emplearprecondicionadores),as comoa ladicultad de estimarel errorapartirdelamedidadelresiduo.Enrealidadambascuestionesestanrelacionadaspueslosmetodositerativoshabituales(comogradienteconjugadooGMRES)estanbasadosenlaminimizaciondelosresiduos.70 SistemasdeecuacioneslinealesynolinealesSinembargo, adiferenciadeloqueocurreenlaresoluciondeecuacionesescalares, enestecasonosetieneaccesosencilloaln umerodecondicionamientodelamatriz.As, en las ecuaciones escalares bastaba con obtener una estimacion de F(x) pero aqu esnecesarioobtenerunaestimacionde |A|M|A1|M. Enprincipionoesdemasiadocostosoobtener |A|Mparaalgunasnormas,peronopuedecontarseconcalcularA1paraconocer|A1|M.Existen algunas tecnicas para tratar de estimar |A1|M. En el texto de Dahlquist y Bjorkrecogidoalnaldeestetema(captulo7,pagina90)puedeconsultarseunmododeacotarinferiormente |A1|M(aunquesolosetratedeunacotainferior,enlapracticadevuelveelordendemagnitudcorrectode |A1|M).SebasaenquesixessoluciondeAx = wentoncessetiene|x| = |A1 w| |A1|M| w|yas|A1|M |x|| w|dondesedebeelegirwadecuadamente(yresolverelsistemadeecuacioneslinealesaprove-chandolafactorizacionsiseempleaunmetododirecto).En muchos casos, sin embargo, se dispone de estimaciones del n umero de condicionamien-tovinculadasalanaturalezadelproblemaqueseresuelve. Esteeselcaso(bienestudiado)deladiscretizaciondeecuacionesenderivadasparcialesen2Do3Dmediantemetodosdediferenciasnitaso metodos deelementosnitos.De hecho,todos estosproblemas (estacio-narios) estan muy mal condicionados y su condicionamientose deteriorarapidamente con elrenamientodelamalla(loquehaceinteresanteel empleodemetodosdirectosapesardeotrasposiblesdesventajas).PrecondicionamientodesistemasdeecuacioneslinealesEnelcasodesistemas(muy)malcondicionados, sehaceprecisoreescribirpreviamenteel sistemadeecuaciones paratratarconmatrices conn umerosdecondicionamientomasbajosyevitaras quelosinevitableserroresderedondeoasociadosaunaaritmeticanitadeteriorenporcompletolasolucion.As,dadounsistemadeecuacioneslinealesAx =

b(muy) mal condicionado, se propone resolver un sistemamodicado, obtenidoal multiplicaralaizquierdaporunaciertamatrizregularBelsistemaoriginalBAx = B

b3.2. CONDICIONAMIENTO DEL PROBLEMA Y CLASIFICACION DE LOS METODOS71conlaintenciondequeelcondicionamientodelnuevosistema(BA)seamuchomasredu-cido.Observeseque, idealmente, desearamostener(BA)=1(menorn umerodecondicionposible, asociado a la matriz identidad) lo cual se lograra si se toma B= A1. Obviamente,estanoesunaeleccionvalida(recuerdesequeencontrarlainversadelamatrizAobligaaresolvernsistemasdeecuacioneslinealesasociadosalamatrizA)peros sirvecomoguaparalaelecciondelamatrizB,quedebeparecerseenlamedidadeloposibleaA1.Enlapractica, sesueleevitarlaconstruccionexplcitadelamatrizBAysimplementesecalculalaacciondelamatrizBsobreunvector(elproductodelamatrizporelvector).Comoporotrolado,BsedebepareceraA1sesuelenotarcomoP1(dondelaresolucionde un sistema de ecuaciones lineales asociado a la matriz Pdebera parecerse a la solucion conlamatrizA,yaqueesoesloqueimplicaqueseparezcanP1yA1).Ademas,elproductodeP1porunvectorequivalearesolverunsistemadeecuacionesconmatrizPyterminode segundo miembro el vector dado. Este hecho impone que Pdebe ser elegida de modo queseasencilloresolverunsistemadeecuacioneslinealesasociadoadichamatriz.Enlapractica, dadaslasdoscondicionesimpuestassobreP(PdebeparecerseaAylossistemasasociadosaPdebenresultarfacilmenteresolubles) yel hechodequeloquerealmentedebehacerseesobtenerelproductodeP1porunvector,sesuelentomarcomoP1unaresolucionaproximadadel sistemadeecuacioneslinealesasociadoalamatrizA(veaseenlasiguienteseccionlaclasicaciondelos metodos yen las seccionesposterioresladescripciondecadametodo):mediante los metodos directos a traves de factorizaciones incompletas (por ejemplo, lafactorizacionLUincompleta)mediante los metodos iterativos clasicos a traves de un n umero prejado de iteraciones(porejemplo,conelmetododeJacobioelmetododerelajacion)ClasicaciondelosmetodosExisteunaclasicaciondelosmetodosendosgrandesgrupos:a) metodosdirectos,quetratan decalcularlasolucionexactaenunn umeroprejadodecalculos(enlapracticaloserroresderedondeoharanimposibleconseguirlasolucionexactayengrandessistemas, especialmentesi estanmal condicionadosesnecesariogarantizarquelaprogramacionyelesquemaseanrobustosanteestosredondeos)b) metodos iterativos, que generanunasucesionde aproximaciones de lasoluciondelsistemadeecuaciones(asuvezdentrodelosmetodositerativossedistinguiraentrelosdenominadosmetodosclasicos-oestacionarios-ylosmetodosdetipogradiente)La eleccion entre un tipo u otro de metodos esta condicionado por el tipo de problema queseresuelve, perotambienporlaecienciadelsoftwarequeseempleeolamaquinasobrelaquesetrabaje. Comonormageneral, eshabitual considerarlaresolucionmediantemetodos72 Sistemasdeecuacioneslinealesynolinealesdirectos (siempre y cuando esten bien programados) para sistemas no demasiado grandes (esestedesdeluegounconceptovariableenel tiempo, peroen2007podemosjarel tama nolmiteenN 105yconmetodositerativos(detipogradiente)parasistemasmayores. Larazonesque, conunaformulacionadecuada(enparticular conpivotes yreescalado), losmetodosdirectossonrelativamenteinmunes alaamplicaciondeloserroresderedondeoysuprincipal defectoessoloel n umerodeoperaciones(1/3N3, queloshaceinadecuados,juntoconlosproblemasdealmacenamiento,parasistemasgrandes).Noobstante, ademas del tama nohaynumerosas cuestiones quedebenser tenidas encuentaalahoradeseleccionarelmetododeresolucion:Siesprecisoresolvervarias vecesunsistemadeecuacionescambiandoexclusivamenteel vectordesegundomiembro(algomuyhabitual enlaintegraciondeecuacionesenderivadas parciales evolutivas einclusoenlaresolucionde ecuaciones enderivadasparciales elpticas no lineales si no se actualiza el Jacobiano con cada paso; tambien encalculodeestructurasantedistintashipotesisdecargaoenlaresolucionderedesdepotenciacondistintashipotesisdeconsumo)elcostedelosmetodosdirectosparalossucesivossistemas(unavezcalculadayalmacenadalafactorizacion)esmnimo. (Deformagrosera,elcosteesdeunordenN2yporlotanto, elcosterelativoesdelordende1/N.Si se tieneun sistemamuy mal condicionadoy no se sabe construir un buen precondi-cionador(yestonoesobvioengeneral)laconvergenciadelosmetodositerativos(detipogradiente, pueslosclasicosraravezseemplearan)puedesermuylentayhacerquelostiemposdecalculototalesseanmenoresparalosmetodosdirectos.Ensistemasmuygrandesconmatriceshuecas(queconstituyeelcasohabitual,comosehamencionado, cuandoseencuentrangrandessistemas)losmetodosdirectosori-ginanunrellenadoenelcalculodelasfactorizaciones(denominadoll-in)quepuedeoriginargravesproblemasdealmacenamiento(quesesumar anal elevadon umerodeoperaciones).En muchos casos, el sistema de ecuaciones que se resuelve proviene de un modelo que yaha incorporado diversos errores (de modelado, de medida o de truncamiento asociado aotros metodos numericos que conducen a la formulacion del sistema); en esta situacionpodraestarjusticadalaaproximaciondelasolucionconprecisionpocoestrictaymerecerla penaacudir a los metodos iterativos(aunquela ventajasoloseraclara si elsistemaesgrande).Adicionalmente, existen metodos especialmente adaptados a problemas especcos. Es-te es el caso de los metodos multimalla (geometricos) para la resolucion de los sistemasoriginados en la discretizacion de ecuaciones en derivadas parciales elpticas, o los meto-dospararesolversistemasasociadosamatricesdeVandermondequeaparecenenlosproblemasdeinterpolacion.3.3. METODOSDIRECTOS 733.3. MetodosdirectosComoyasehacomentado, losmetodosdirectostratandecalcular lasolucionexactaenunn umeroprejadodecalculos. Acontinuacionrecordaremosel metododeGauss, queconstituyelabasedelosmetodosdirectos(aunqueellectorhayaquizasestudiadoenalg unmomentola regla Cramer como metodo directopara la resolucion de sistemasde ecuacioneslineales, es facil convencerse de la absoluta ineciencia de dicho metodo para resolver sistemasde mas de tres ecuaciones y, en consencuencia, del nulo interes practico de la regla de Cramer).MetododeGaussComosesabe, el metododeGauss(ometododeeliminacion, comosedenominaconfrecuencia) propone unasucesionde operaciones elementales que elimine ordenadamentedeterminadasincognitasdelasecuacioneshastalograrunsistematriangular(superior)demodo que las incognitas puedan irse despejando sucesivamente a partir de la ultima ecuacion.Acontinuacionserecuerdaconunejemploelementalelalgoritmodeeliminacion.Ejemplo3.1Seconsiderael sistemadeecuaciones___4x1x2+x3= 82x1+5x2+2x3= 3x1+2x2+4x3= 11queseescribematricialmente___4 1 12 5 21 2 4______x1x2x3___ =___8311___Setratadehacerencadaetapak-esimacerosenlacolumnakpordebajodeladiagonalprincipal.Paraellohadetenersequeel elementoakkdecadaetapakseadistintodecero.Etapa1del procesodeeliminaciongaussiana:Comencemoshaciendocerosenlaprimeracolumnadebajodel elementoa11; paraellohemos de sumarle a la segunda la la primera multiplicada por 1/2 y a la tercera la primeralamultiplicadapor 1/4;estoesequivalentea___1 0 01/2 1 01/4 0 1______4 1 12 5 21 2 4______x1x2x3___ =___1 0 01/2 1 01/4 0 1______8311______4 1 10 11/2 3/20 9/4 15/4______x1x2x3___ =___819___Etapa2del procesodeeliminaciongaussiana:Debemoshacerahorauncerodebajodel elemento11/2,asquelesumamosalaterceralalasegundamultiplicadapor 9/22oloqueeslomismo74 Sistemasdeecuacioneslinealesynolineales___1 0 00 1 00 9/22 1______4 1 10 11/2 3/20 9/4 15/4______x1x2x3___ =___1 0 00 1 00 9/22 1______819______4 1 10 11/2 3/20 0 69/22______x1x2x3___ =___81207/22___Finalmente,resolvemosel sistemacuyamatrizestriangularsuperior.Remontetraseliminaci ongaussiana:x3=226920722= 3x2=211(1 32x3) = 1x1=14(8 + x2x3) = 1Desdeel puntodevistamatricial, el metododeGausspararesolver unsistemadelaformaAx =

btratadedeterminarunamatrizregularMdeformaqueMAseaunamatriztriangular superior (procesode eliminacion)y resolvera continuacionel sistemaequivalenteMAx=M

b (procesoderemonte). Hayquetenerencuentaqueenloscalculosefectivosnosecalculaexplcitamente lamatrizMsinosolamente lamatrizMAyel vector M

b,conduciendoalsistemadeecuacionesequivalenteMAx = M

b.SidenotamosmedianteUlamatriz(triangularsuperior)MAytenemosencuentaquealserlamatrizMregularpodemosmultiplicaralaizquierdaporM1pararecuperarunareescrituradelsistemadeecuacionesoriginalM1Ux =

bFinalmente, bastaconobservarcomosehaprocedidoalaeliminaciondeloselementosdeApordebajodeladiagonalparaconvencersedequelamatrizM1debesertriangularinferior.LlamandoentoncesLalamatriz(triangularinferior)M1sehareescritoAcomoel producto de las matrices L y U. A dichareescritura de A se le denomina factorizacion LUdelamatrizA.Deestemodo,dadounsistemadeecuacionesAx =

b3.3. METODOSDIRECTOS 75si descomponemosA=LU(conLtriangularinferioryUtriangularsuperior)esposibleresolverelsistemamedianteunaetapadedescensoLy=

byotraderemonteUx = yEjemplo3.2Retomemos el ejemplo anterior y calculemos la factorizaci on LUdela matrizdelsistema___4 1 12 5 21 2 4______x1x2x3___ =___8311___EmpleandolasmatricesE1yE2asociadasalasoperacioneselementalesE1=___1 0 01/2 1 01/4 0 1___ E2=___1 0 00 1 00 9/22 1___yllamandoUalamatriztriangularE2E1AU=___4 1 10 11/2 3/20 0 69/22___puedeescribirse(E1yE2regulares)E11E12U= ADeniendoahoraL = E11E12setieneL =___1 0 01/2 1 01/4 0 1______1 0 00 1 00 9/22 1___ =___1 0 01/2 1 01/4 9/22 1___Ensuma,sehaobtenidoA =___4 1 12 5 21 2 4___ =___1 0 01/2 1 01/4 9/22 1______4 1 10 11/2 3/20 0 69/22___y la resolucion del sistema de ecuaciones puede hacerse mediante una etapa de descenso (quedeterminalosvaloresauxiliaresy1,y2ey3)76 Sistemasdeecuacioneslinealesynolineales___1 0 01/2 1 01/4 9/22 1______y1y2y3___ =___8311___yotraderemonte(paracalcularx1,x2yx3)___4 1 10 11/2 3/20 0 69/22______x1x2x3___ =___y1y2y3___Desde luego, la principal aplicacion de la factorizacion LUes la resolucion de sistemas deecuaciones lineales (como se acaba de ver, la factorizacion LU es, en realidad, una reescrituradel metododeeliminaciondeGauss). Sinembargo, estafactorizaciontienealgunasotrasaplicaciones. As,supongamosqueunaciertamatrizAadmitefactorizacionLU. Entonces,podemoscalcularapartirdeella:EldeterminantedelamatrizA,puestoque:det(A) = det(L)det(U) = Ni=1uiiLainversadelamatrizA resolviendoNsistemasdeecuacionesdelaformaAxj= ej,de modo que A1se construye a traves de los Nvectores xj. Observeseque el coste delaresoluciondecadasistemanoesmuyelevadopuestoquelafactorizacionsecalculaunavezysealmacena.Seplanteaahoralacuestionacercadesi todosistemadeecuacionespuedeserresueltomedianteelmetododeGausso,equivalentemente, sitodamatrizadmiteunafactorizacionLU.Larespuesta(insatisfactoria,comosevera)vienedadaporelsiguienteresultado.Proposicion3.2(condicionsucienteparalaexistenciadefactorizacionLU)SeaAunamatrizcuadradaN NtalquesusNmenoresprincipalessondistintosdecero.EntonceslamatrizAtieneunafactorizacionLUdondeLesunamatriztriangularinferiorconunosenladiagonalprincipalyUesunamatriztriangularsuperior.Demostracion: PuedeconsultarseeneltextodeKincaidyCheney(pagina136).Cabehaceraqudosobservacionessobreelresultadoqueseacabadeexponer:3.3. METODOSDIRECTOS 77La condicion suciente de existencia de factorizacion LU conlleva un coste muy elevadopuesrequierecalcularnumerososdeterminantes. Dehecho, comoseacabadever, unmodo eciente de calcular el determinante de una matriz es precisamente a traves de sufactorizacionLU.As,noresultaunacondicionadecuadaparaexaminarpreviamentesi unamatriz admitiraonofactorizacionpues exigiramas calculos que lapropiafactorizacion; seraentoncespreferibleintentar calcular directamentela factorizacion.El metodode Gaussapareceas comoun metodopocosatisfactoriopara laresolucionde sistemas de ecuacioneslineales,pues existenmatrices regulares que no satisfacenlacondicion anterior y el resultado no permite asegurar entonces que el metodo de Gausspuedaresolverunsistemadeecuacionesasociadoadichamatriz.Veamosahoraque, enefecto, existensistemasdeecuacioneslinealesquenopuedenserresueltosmedianteelmetododeGaussenlaformulacionelementalquehemospresentadoEjemplo3.3Seconsiderael siguientesistemadeecuacioneslinealesx1x2 + 3x3= 33x13x2 + x3= 1x1 + x2 + x3= 3El proceso deeliminacion comienza haciendo cerolos coecientes dela matriz por debajodeladiagonal enlaprimeracolumna. ParaellosedeberamultiplicaralaizquierdaalamatrizdelsistemaAporunamatriz___1 0 03 1 01 0 1___que corresponde (pensando en terminos del metodo de Gauss) a sustituir la segunda ecuaciondel sistemaporlaecuacionresultantederestarle3veceslaprimeraecuacionalasegunda,ysustituirlaterceraecuacionporaquellaqueseobtienetrasrestarlaprimeraecuaciondela ultima.Sinembargo,esfacilverqueelresultadonopermitecontinuarelprocesodeeliminacionparahacerceroloscoecientespordebajodeladiagonalenlasegundacolumnayaque___1 0 03 1 01 0 1______1 1 33 3 11 1 1___ =___1 1 30 0 80 2 2___Ahorabien,pensandodenuevoenterminosdel metododeGauss,el resultadonopodasermejoryaqueelsistemadeecuacionesresultantedelascombinacionesmencionadases:x1x2+3x3= 38x3= 82x22x3= 078 Sistemasdeecuacioneslinealesynolinealesy por lo tanto no necesita ning un proceso adicional de eliminacion ya que la segunda ecuacionpermiteobtenerx3y, apartirdeesta, laterceraecuaciondevuelvex2y, nalmente, delaprimera ecuacion se despeja x1. Es cierto que este no es estrictamente un proceso de remonte(puesprimeroseresuelvelasegundaecuacion,despueslaterceraynalmentelaprimera),peropareceobviocomolograrqueesta ultimaetapaderesolucionseaunremonte:bastaconreordenarlasdos ultimasecuacionesyescribirelsistemacomox1x2+3x3= 32x22x3= 08x3= 8Estasimpleobservacionpermiteresolver entonces ladicultadconelcalculodelafacto-rizacionLU:bastabaconintercambiar lasegundayterceralas delamatriz A(queequivaleaintercambiardesdeelprincipioelordendelasecuaciones).Al proceso descrito en el ejemplo anterior para calcular la factorizacion LU de una matriz(que intercambia las las de la matriz) se le denomina factorizacion indirecta. De forma masprecisa,sedicequeunamatriz Aadmiteunafactorizacion LUindirectasiexisteunaciertamatrizPdepermutaciones(matrizconcerosyunoscomoelementos,organizadosdemodoquecadalaycadacolumnatienenunysolounelementoigual a1) tal quelamatrizPA(quecorrespondealamatrizAconsuslasreordenadasdeacuerdoconlamatrizdepermutacion)admitefactorizacionLU.Acontinuacionseveraunresultadoqueaseguraque, paratodamatrizregularsiempreesposible, atravesquizasdelareordenaciondelasecuaciones, laaplicaciondel metododeGausspararesolverel sistemadeecuacioneslineales. Enterminosmatriciales, sevaaasegurarquetodamatrizregularadmitefactorizacionLUindirecta.Proposicion3.3SeaAunamatriz regular. Entonces existeunamatriz depermutacionPtal queP A=LUdondeLesunamatriztriangularinferiorconunosenladiagonalprincipalyUesunamatriztriangularsuperior.Demostracion: Este resultado se basa en que, en la etapa k-esima del proceso de eliminacion,puedesucederqueakk=0y, portanto, nopuedausarselalak-esimaparaeliminarloselementos de la columna k-esima que estan por debajo de la diagonal principal. Lo que puedehacerse en este caso es intercambiar la la k-esima con alguna la posterior para conseguir unelementopivotequenoseacero;si estonopuedehacerse,entonceslamatrizde coecientesdelsistemaessingularyelsistemanotienesolucion unica.EnrelacionconlafactorizacionLUindirectadebeobservarseque:El intercambiode las de la matriz A debe acompa narse del intercambiode elementosdebcuandosetrataderesolverunsistemaAx =

b.As,supongamosquelamatrizA3.3. METODOSDIRECTOS 79admiteunafactorizacionLUindirecta,esdecir,P A = LU.PararesolverunsistemadelaformaAx=bseresolverael sistemaLy=P

bporsustitucionprogresivayacontinuacionU x = yporsustitucionregresiva.Enlapractica, dadaunaciertamatriznoesinmediatosabersi esonounamatrizregular (salvo que el problema que ha originado el sistema de ecuaciones lineales poseaalgunapropiedad quepermitaconcluirlaregularidad osingularidad dela matriz).Dehecho, el criterio mas inmediato para saber si la matriz es o no regular (el calculo de sudeterminante),pasaraenlapracticaporobtenersufactorizacionLU.As,el(intentode)calculodelafactorizacionLUindirectadeunamatrizAsirveprecisamenteparaconocersidichamatrizesonoregular.Sehaobtenidoentoncesunalgoritmo(el metododeeliminaciondeGaussconposibleintercambiodeecuaciones)paralaresolucion(exacta)decualquiersistemadeecuacioneslinealesconmatrizregular.Una estimacion del orden de magnitud del coste computacional de este algoritmo (dondese evaluara exclusivamente el n umero de productos que se deben efectuar, puesto que el restodelasoperacionessonsumasqueseejecutanenuntiempomuchomascortoodivisionescuyon umeroesmuyinferior)devuelveunordendeN3(dondeNrepresentael n umerodeecuaciones). Observese quedichoordenseobtienedel hechodequees precisorepetir elprocesodeeliminaciondeterminospordebajodeladiagonal(N 1)vecesycadaprocesodeeliminacionoperasobreklas(conkel n umerodelas, queirareduciendoseenunaunidaddesdelaprimeracolumna,dondeserak= N 1,demodoqueenlaj-esimaetapasetendranN j + 1las)dekelementoscadauna,realizandoporlotantounn umerodeproductosdelordendeN2(unaestimacionnadevuelve13N2).As,elcostedecalculodelmetodo de eliminacion de Gauss crece rapidamentecon el tama no del sistemade ecuacionesyesprecisamenteestehecholoqueharanecesarioencontrarmetodosaleternativoscuandosetratederesolversistemasdegrantama no.Por otrolado, es precisohacer unaobservacionsobreestemetodo(y, engeneral, so-brelosmetodosdirectos). ElmetododeGaussdevolveralasolucionexactadeunsistemadeecuacionestrasunn umeronitodeoperaciones(quepuede, comoacabamosdeobser-var,sergrande)siempreycuando estasserealicenconaritmeticaexacta.Logicamenteestonoocurrepracticamentenuncacuandosetrabajaconunalgoritmoprogramadosobreunordenador(tendraqueocurrirquedurantelaaplicaciondelalgoritmoseobtuviesenexclu-sivamente n umeros racionales representables de forma exacta en el ordenador sobre el que setrabaja). En consecuencia, en sentido estricto los metodos directos tambien devuelven (comolosmetodositerativos)unasolucionaproximadadel sistemadeecuaciones, aunqueaqu laaproximacionesdebidatansoloaloserroresderedondeoysupropagacionalolargodeloscalculos.Comosevaaver,enalgunasocasionesestoconduciraaerroresmuyreducidos(manteniendoseel ordendemagnituddel errorderedondeo)mientrasqueenotrosel re-dondeopuedeoriginar(debidoalapropagacionyamplicaciondeloserroresderedondeo)erroresenormes.80 SistemasdeecuacioneslinealesynolinealesEjemplo3.4Seconsideradenuevoel sistemadeecuaciones___4x1x2+x3= 82x1+5x2+2x3= 3x1+2x2+4x3= 11y suresolucionmediante el metodode eliminacionde Gauss empleandouna aritmeticapseudo-decimal nita. Enparticular, seempleaunahipoteticaaritmeticanitaconcomaotantequereservacuatrodgitos(decimales)paralamantisa,juntoconotrodgitoparaelexponenteyunbitparael signo:f= a1.a2a3a410b1Etapa1del procesodeeliminaciongaussiana:___+4.000 100x11.000 100x2+1.000 100x3= +8.000 100+5.500 100x2+1.500 100x3= 1.000 100+2.250 100x2+3.750 100x3= +9.000 100Etapa2del procesodeeliminaciongaussiana:___+4.000 100x11.000 100x2+1.000 100x3= +8.000 100+5.500 100x2+1.500 100x3= 1.000 100+3.136 100x3= +9.409 100Remontetraseliminaci ongaussiana:x3= +3.000 100x2= 1.818 1008.182 100= 1.000 100x1= +2.000 1007.500 101+ 2.500 101= +1.000 100En el ejemplo que se acaba de mostrar, los errores de redondeo en cada etapa (asociados altruncamiento de los resultados para poder ser representados en la aritmetica nita) originanenlasoluciondel sistemadeecuaciones errores del mismoordendemagnitud, demodoquelasolucionobtenidaes, paralosdgitosretenidosenesaaritmeticanita, exacta. Sinembargo, esta no sera siempre la situacion. A continuacion se vera un segundo ejemplo dondeloserroresderedondeos puedenamplicarsealolargodeloscalculosysemostraraunmododeevitarquedichaamplicacionseproduzca.Ejemplo3.5Seconsiderael sistemadeecuaciones_0.003 x1+59.14 x2= 59.175.291x16.130x2= 46.78con soluci on exacta x1= 10, x2= 1y su resolucion mediante el metodo de Gauss empleandolamismahipoteticaaritmeticanitaqueenel ejemploanterior.Etapadeeliminaci ongaussiana:3.3. METODOSDIRECTOS 81_+3.000 103x1+5.914 101x2= +5.917 1011.043 105x2= +1.044 105Remontetraseliminaci ongaussiana:x2= +1.001 100x1= +1.972 1041.971 104= 1.000 101Observese que aunque el valor obtenido para la variable x2contiene un error de solamenteel 0.1 %, laaproximacion obtenida paralavariable x1es desastrosa: sehacometido unerrordel200 %,loquesuponeunaamplicaciondel errorderedondeoconunfactorde106.Puede,desde luego, objetarsequeseestatrabajandoconunaaritmetica nita muy pobre(locualesabsolutamentecierto).Sinembargo,observese tambienquesehaconsideradounsistemadel ordenmaspeque noposible. Deformagrosera, lapropagaciondel efectodelosredondeosalolargodelaresoluciondel sistemadeecuacioneslinealestienequeverconambosparametrosyloqueaqu haocurridoconunaprecisi onmuygroseraenunsistemamuy peque no ilustra lo que ocurrira en sistemas de tama nos realistas con precisiones tambienrealistas.Podraquizasatribuirseelenormeerroralmalcondicionamientodelproblema.Sinem-bargo,paraconvencersedequeestonoesasbastaconexaminarelcondicionamientodelamatriz,queempleandolanorma2es(A) 11.298.As,elcondicionamientodelproblemasolojusticaraunaamplicacion deloserroresderedondeoparadevolvererroresnales deun0.1 %(quesonlosqueaparecenenlavariablex2).Laverdaderarazondelenormeerrorcometidoenlaresoluciondelsistematienequevercon el proceso de eliminacion. En particular, observese que (en la unica etapa de eliminacionexistentedado queel sistema es de dos ecuaciones) el termino en ladiagonal (0.003) es muyreducidoloquelleva,enlassiguientesoperaciones,adividirporunn umeromuypeque no.Estaoperacion essiempre delicadacuandosecalculaenaritmetica nitayaquesi, comoeneste caso, se opera sobre cantidades muy grandes para obtener nalmente mediante restas unacantidadquenoloes,seperderamuchaprecisionenloscalculos (deformagrosera,elerrorde redondeo se multiplicara por el inverso de esa cantidad peque na, lo que en este caso suponeunaamplicaciondelos errores generados por laaritmeticanitayel condicionamientodesdeun0.1 %hastaordenesde100 %como,dehecho,ocurreenlapractica).Observese que,desde laperspectiva delaaritmetica nita, lasituaciones enciertomodoparecida a la que ocurra en el ejemplo 3.3 donde el proceso de eliminacion no poda continuardebidoaqueaparecaunelementonuloenladiagonal (enel presenteejemplo, setienequea11a12104, queeslaprecisiondelahipoteticaaritmeticanitaempleada). Ensuma,trabajandoconaritmeticanita,unvalormuyreducidopuedeconsidarsecomounelementonuloquehaceimposibleenlapracticaproceder(congarantas)enlaeliminacion.Esta ultimaanalogasirvetambienparaproponer el mododeresolver estadicultad.ComosehaceenlaeliminaciondeGaussconaritmeticaexactaal encontrarunceroenladiagonal, al trabajar con aritmetica nita si aparece un termino muy peque no en la diagonal se82 Sistemasdeecuacioneslinealesynolinealesdeberanintercambiar lasecuaciones parautilizarenlaetapadeeliminacion correspondientedivisionesporn umerosquenoseanpeque nos.Enlapractica,encadaetapadeeliminacionsebuscalalaquecontiene(enlacolumnaqueseestatratandodeeliminarypordebajodeladiagonal)elelementoconvalorabsolutomasgrandeyseintercambiaconlalacorrespondiente. Deestemodo, seaseguraquesedivideporel n umeromasgrandeposibleysereducelaamplicaciondeloserroresdere-dondeo. Al metododeeliminaciondeGaussconestaestrategiaseledenominametododeGaussconpivotetotal.Aplicadoal presenteejemplo,estaestrategiareordenara(enla unicaetapadeelimina-cion)lasecuaciones.As,siseconsideraahorael sistemaconlasecuacionesreordenadas:_5.291x16.130x2= 46.780.003 x1+59.14 x2= 59.17Etapadeeliminaci ongaussiana:_+5.291 100x16.130 100x2= +4.678 101+5.914 101x2= +5.914 101Remontetraseliminaci ongaussiana:x2= +1.000 100x1= +8.841 100+ 1.159 100= +1.000 101De este modo, lasimplereordenacionde las ecuaciones hallevadoaque lasolucionquedevuelveel metodosea, denuevo, exactaenlosdgitosqueretienelaaritmeticanitaempleada.Seacabadeilustrarcomo,endeterminadasocasiones,lareordenaciondelasecuaciones(durante el proceso de eliminacion) atendiendo a la magnitud de los coecientes encontradosen la correspondientecolumnabasta para evitar la amplicacion de los errores de redondeo.Sinembargo,estatecnica(conocidacomometododeGaussconpivoteparcial)nosiempreessucienteparagarantizarquenoseproducelaamplicacion, tal ycomosemuestraenel siguienteejemplo,queserviraal mismotiempopara considerarunaestrategiaalternativa(almetododeGaussconpivoteparcial)queresultemasrobusta.Ejemplo3.6Seconsiderael sistemadeecuaciones_30 x1+591400 x2= 5917005.291x16.130x2= 46.78consoluci onexactax1=10yx2=1(setratadel mismoproblemaconunescalamientodiferente),medianteel metododeGaussconpivoteparcialylamismaaritmeticanita.3.3. METODOSDIRECTOS 83Etapadeeliminaci ongaussiana:_+3.000 101x1+5.914 105x2= +5.917 1051.043 105x2= 1.044 105Remontetraseliminaci ongaussiana:x2= +1.001 100x1= +1.972 1041.973 104= 1.000 101As,sehaoriginadodenuevounerrordel 0.1 %enlavariablex2yunerrordel 200 %enlavariablex1. Observeseque noresultararoque se hayaobtenidodenuevoeste re-sultadoteniendoencuentaque, conrespectoal ejemplooriginal, solosehareescaladolaprimeraecuacionevitandoasel intercambiodelas(opivoteenlaterminologahabitual)ymanteniendoentonceslasmismasoperaciones.De acuerdo con la observacion anterior, se comprueba que la estrategia de intercambio delasnodeberaatenderexclusivamenteacompararlosvaloresabsolutosdeloscoecientessobrelacolumnadondeseestallevandoacabolaeliminaci onsinoel cocienteentreestevalorabsolutoyelmayorvalorabsolutosobreesamismala(loquesedenominaelmetododeGaussconpivoteparcialyreescaladodelas).Retomandoel mismoejemplo,parahacerel escaladodelasseeligedentrodecadalaelelementoconmayorvalorabsoluto;enestecaso591400 paralaprimeralay6.130enlasegunda. Acontinuacionseeligeel mayorentreloscocientes30/591400y5.91/6.130ysetomaesalacomolapivote:_5.291x16.130x2= 46.7830 x1+591400 x2= 591700loquellevaaunprocesodeeliminacion:_+5.291 100x16.130 100x2= +4.678 101+5.914 105x2= +5.914 105yderemonte:x2= +1.000 100x1= +8.841 100+ 1.159 100= +1.000 101Secompruebaentoncesquelaestrategiapropuesta(metodo de Gauss conpivote parcialyreescaladodelas)proporcionaunatecnicamasrobustaparaevitarlaamplicaciondeloserroresderedondeo.Por ultimo, se considerasobre el mismo ejemplo una alternativa al metodo de reescaladode las (que simplemente facilitalas comparaciones de los pivotes) yque resultaenunalgoritmodenominadometododeGaussconequilibradodelas.84 SistemasdeecuacioneslinealesynolinealesEjemplo3.7Seconsiderael sistemadeecuaciones_30 x1+591400 x2= 5917005.291x16.130x2= 46.78consoluci onexactax1= 10yx2= 1,resueltoconlamismaaritmeticanita.Equilibrado delas del sistema: se divide cada laentre el elemento de mayor valor absolutodentrodecadala. Enestecasosedividelaprimeralaentre591400ylasegundaentre6.130:_+5.073 105x1+1.000 100x2= +1.001 100+8.631 101x11.000 100x2= +7.631 100Reordenacionyetapadeeliminaciongaussiana:_+8.631 101x11.000 100x2= +7.631 100+1.000 100x2= +1.001 100Remontetraseliminaci