Manejo de errores 1
-
Upload
elias-hidalgo-briceno -
Category
Engineering
-
view
54 -
download
0
Transcript of Manejo de errores 1
REPÚBLICA BOLIVARIANA DE VENEZUELAMINISTERIO DEL PODER POPULAR PARA LA EDUCACIÓN
UNIVERSIDAD FERMÍN TOROCABUDARE – EDO. LARA
ANALISIS NUMERICO
Tema1
Alumno: Elias Hidalgo Briceo
C.I.: 25526218
Definición de métodos numéricos
Los métodos numéricos son técnicas mediante las cuales es posible formular
problemas de tal forma que sean resueltos con operaciones aritméticas. Aunque hay
muchos tipos de métodos, todos comparten una característica común, llevan a cabo
un buen número de cálculos aritméticos y emiten soluciones aproximadas.
1Steven C. Chapra y Raymond P. Canale, Métodos numéricos para ingenieros con
aplicaciones en computadoras personales, México, McGraw-Hill, 1996.
La importancia de los métodos numéricos no radica en buscar la solución exacta de un
problema, sino la aproximada pero con la precisión requerida, o sea, con un error lo
suficientemente pequeño y próximo a cero, de ahí la utilidad de los métodos
numéricos.
Importa también el tiempo empleado en obtener la solución y en esto ha jugado un
papel importante el enorme desarrollo de la tecnología computarizada, ya que la
enorme velocidad actual de los medios computarizados de cómputo ha reducido
considerablemente el tiempo de obtención de la solución, lo que ha motivado la
popularidad, el enorme uso y aceptación que hoy tienen los métodos numéricos.
Sumémosle a ello que las computadoras son capaces de dar solución con la precisión
requerida.
Aquí es bueno aclarar que no es correcto pensar que el desarrollo tecnológico
computarizado es quien ha creado los métodos numéricos ya que los orígenes de la
matemática numérica son muy antiguos, datan de miles de años atrás, cuando los
babilonios construyeron tablas matemáticas y elaboraron efemérides astronómicas. Lo
que sucede es que la mayoría de los métodos numéricos requieren de un enorme
volumen de cálculo que los hacían engorrosos de utilizar y esta dificultad vino a
eliminarse con el desarrollo de la computación, pero los métodos numéricos existen
mucho antes de ella.
Con fundamento en lo antes mencionado, tenemos cinco importantes razones para el
estudio de los métodos numéricos:
1. Los métodos numéricos son herramientas poderosas capaces de manejar
sistemas de ecuaciones grandes y complicadas que son difíciles de resolver
analíticamente.
2. Existe software comercial que facilita la solución de problemas mediante los
métodos numéricos. El uso inteligente de estos programas depende del
conocimiento de la teoría en la que se basan estos métodos.
3. Si se conocen los métodos numéricos y se aplican los conocimientos de
programación, se tiene entonces la capacidad de diseñar programas propios,
sin tener que comprar el software costoso.
Cálculo de errores: error absoluto, error relativo.
Bien sea una medida directa (la que da el aparato) o indirecta (utilizando una fórmula)
existe un tratamiento de los errores de medida. Podemos distinguir dos tipos de
errores que se utilizan en los cálculos:
Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado
como exacto. Puede ser positivo o negativo, según si la medida es superior al
valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las
mismas que las de la medida.
Error relativo. Es el cociente (la división) entre el error absoluto y el valor
exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al
igual que el error absoluto puede ser positivo o negativo (según lo sea el error
absoluto) porque puede ser por exceso o por defecto. no tiene unidades.
Factores que influyen al error en los cálculos numéricos.
Los errores numéricos se generan con el uso de aproximaciones para
representar las operaciones y cantidades matemáticas. Esto incluye errores de
truncamiento que resultan de representar aproximadamente un procedimiento
matemático exacto, y los errores de redondeo, que resultan de presentar
aproximadamente números exactos. Para los tipos de errores, la relación entre
el resultado exacto o verdadero y el aproximado esta dado por :
Valor verdadero = valor aproximado + error
Reordenando la ecuación se encuentra que el error numérico es igual a la
diferencia entre el valor verdadero y el valor aproximado esto es :
Ev = valor verdadero – valor aproximado
Donde Ev se usa para redondear el valor exacto del error. Se incluye el
subíndice v par dar a entender que se trata del “verdadero” error.
Un defecto es que muchas veces no se toma en consideración el orden de
magnitud del valor que se está probando . Por ejemplo, un error de un
centímetro es mucho más significativo si se está midiendo un
remache que un puente. Una manera de medir las magnitudes de las
cantidades que se están evaluando es normalizar el error respecto al valor
verdadero, como en:
Error relativo fraccional = error / valor verdadero
Donde:
Error = valor verdadero – valor aproximado.
El error relativo también se puede multiplicar por el 100% para expresarlo como
Ev = (error verdadero/ valor verdadero ) 100; Donde Ev denota el error relativo
porcentual. El subíndice v significa la normalización del error al valor verdadero
.
Para los métodos numéricos el valor verdadero únicamente se conocerá
cuando se habla de funciones que se pueden resolver analíticamente. Sin
embargo, en aplicaciones reales, no se conoce la respuesta verdadera. En
estos casos, normalizar el error es una alternativa usando la mejor estimación
posible del valor verdadero, esto es a la aproximación misma, como:
Ea = (error aproximado/ valor aproximado)100
Donde el subíndice a significa que el error está normalizado a un valor
aproximado .
Uno de los retos a que se enfrentas los métodos numéricos es el de determinar
estimaciones del error en ausencia de conocimiento de los
valores verdaderos. El error se calcula como la diferencia entre la aproximación
previa y la actual. Por lo tanto, el error relativo porcentual está dado por;
Ea =abs( ((aproximación actual- aproximación previa )/ aproximación actual)
100)
Si se cumple la relación anterior , entonces se considera que el resultado
obtenido esta dentro del nivel aceptable, es decir, aun error previamente
fijado(Es):
Abs(Ea) <>
Errores de Redondeo
Los errores de redondeo se deben a que las computadoras solo guardan un
numero finito de cifras significativas durante un calculo. Las computadoras
realizan esta función de maneras diferentes; esta técnica de retener solo los
primeros siete términos se llamó “truncamiento” en el ambiente de
computación. De preferencia se llamara de corte, para distinguirlo de los
errores de truncamiento. Un corte ignora los términos restantes de la
representación decimal completa.
La mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los
errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos
razones del por qué pueden resultar críticos en algunos métodos numéricos:
1) Ciertos métodos requieren cantidades extremadamente grandes para
obtener una respuesta. Además, estos cálculos a menudo dependen
entre si, es decir, los cálculos posteriores son dependientes de los anteriores.
En consecuencia, aunque un error de redondeo individual puede ser muy
pequeño, el efecto de acumulación en el transcurso de la gran cantidad de
cálculos puede ser significativo.
Errores de Truncamiento
Los errores de truncamiento son aquellos que resultan al usar una
aproximación en lugar de un procedimiento matemático exacto.
Estos tipos de errores son evaluados con una formulación matemática: la serie
de Taylor.
Taylor es una formulación para predecir el valor de la función en Xi+1 en
términos de la función y de sus derivadas en una vecindad del punto Xi.
Siendo el termino final:
Rn= ((ƒ(n+1) (ξ))/(n+1)!)hn+1
En general, la expansión en serie de Taylor de n-ésimo orden es exacta par
aun polinomio de n-pésimo orden. Para otras funciones continuas
diferenciables, como las exponenciales o sinodales, no se obtiene una
estimación exacta mediante un numero finito de términos. Cada una de los
términos adicionales contribuye al mejoramiento de la aproximación, aunque
sea un poco.
Error numérico TotalEl error numérico total es la suma de los errores de redondeo y de
truncamiento. La única forma de minimizar los errores de redondeo es la de
incrementar el número de cifras significativas de la computadora.
Errores por equivocaciónEn los primeros años de la computación los resultados numéricos erróneos
fueron atribuidos algunas veces al mal funcionamiento de la computadora
misma. Hoy día esta fuente de error es muy improbable y la mayor parte de las
equivocaciones se atribuye a errores humanos.
Las equivocaciones ocurren a cualquier nivel del proceso de modelación
matemática y pueden contribuir con todas las otras componentes del error. Las
equivocaciones, por lo general se pasan por alto en la discusión del método
numérico. Esto sin duda prueba el hecho de que los errores de torpeza son,
hasta cierto punto inevitables
Cifras significativas.
Las cifras significativas de una medida están formas por los dígitos que se conocen no
afectados por el error, más una última cifra sometida al error de la medida. Así, por
ejemplo, si digo que el resultado de una medida es 3,72 m, quiero decir que serán
significativas las cifras 3, 7 y 2. Que los dígitos 3 y 7 son cifras exactas y que el dígito
2 puede ser erróneo. O sea, el aparato de medida puede medir hasta las centésimas
de metro (centímetros), aquí es donde está el error del aparato y de la medida. Por
tanto, has de tener en cuenta:
Que en física y en química el número de dígitos con das un resultado de una
medida (directa o indirecta) es importante. No puedes poner todos los dígitos
que te da la calculadora. Los resultados no pueden ser más precisos que los
datos de donde se obtienen, es decir, los resultados deben tener tantas cifras
significativas o menos que los datos de procedencia.
No es lo mismo 3,70 m que 3,7 m. En el primer caso queremos decir que se ha
precisado hasta los centímetros mientras que en el segundo caso sólo hasta
los decímetros.
Notación científica.
Tanto en física como en química se suelen manejar números muy grandes o muy
pequeños. Una forma de evitar manejar demasiados dígitos (normalmente tendríamos
problemas con las calculadoras para introducirlos) es utilizar la notación científica.
Todo número en notación científica siempre viene expresado de la misma forma:
Una parte entera que consta de un número distinto de cero, seguido de una
coma y de cifras decimales.
Una potencia de diez, con exponente positivo o negativo.
1. ¿Cómo pasar un número muy grande a notación científica?
2. ¿Cómo pasar un número muy pequeño a notación científica?
3. ¿Como pasar un número en notación científica con exponente positivo a
número normal?
4. ¿Como pasar un número en notación científica con exponente negativo a
número normal?
Si todas las medidas de una misma magnitud están expresadas en notación científica,
para compararlas sólo deberemos ver el exponente de la potencia de diez. Ese
exponente representa lo que denominamos grado de magnitud. Lo comprenderás
mejor cuando realices la actividad recomendada al final del bloque ('Las dimensiones
de la materia')
Cálculos con datos experimentales.
La estadística es muy importante en la Ciencias Experimentales. Toda experiencia
debería tener detrás un estudio estadístico que nos indique cuantos datos debemos
tomar y cómo tratarlos una vez realizada la misma.
Como se trata de iniciarte en las Ciencias Experimentales, las reglas que vamos a
adoptar en el cálculo con datos experimentales son las siguientes:
Una medida se debería repetir tres ó cuatro veces para intentar neutralizar el
error accidental.
Se tomará como valor real (que se acerca al valor exacto) la media aritmética
simple de los resultados.
El error absoluto de cada medida será la diferencia entre cada una de las
medidas y ese valor tomado como exacto (la media aritmética).
El error relativo de cada medida será el error absoluto de la misma dividido por
el valor tomado como exacto (la media aritmética).
Ejemplo. Medidas de tiempo de un recorrido efectuadas por diferentes alumnos: 3,01
s; 3,11 s; 3,20 s; 3,15 s
1. Valor que se considera exacto:
2. Errores absoluto y relativo de cada medida: