ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Unidad 1 De Metodos Numericos

sakale211 de Septiembre de 2013

2.895 Palabras (12 Páginas)389 Visitas

Página 1 de 12

1.1 LA IMPORTANCIA DE LOS METODOS NUMERICOS

Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas.

El análisis numérico trata de diseñar métodos para “aproximar” de una manera eficiente las soluciones de problemas expresados matemáticamente.

El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas complejos utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático.

Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:

• Cálculo de derivadas

• Integrales

• Ecuaciones diferenciales

• Operaciones con matrices

• Interpolaciones

• Ajuste de curvas

• Polinomios

Los métodos numéricos se aplican en áreas como:

Ingeniería Industrial, Ingeniería Química, Ingeniería Civil, Ingeniería Mecánica, Ingeniería eléctrica, etc...

1.2 COMSEPTOS BASICOS: CIFRA SIGNIFICATIVA.

El concepto de cifra significativa lo podemos definir como aquella que aporta información no ambigua ni superflua acerca de una determinada medida experimental, son cifras significativas de un numero vienen determinadas por su error. Son cifras que ocupan una posición igual o superior al orden o posición de error.

Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos.

1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar qué tan precisos son los resultados obtenidos.

2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras.

Reglas de operaciones con cifras significativas.

Regla 1: los resultados experimentales se expresan con una sola cifra dudosa, e indicando con + - la incertidumbre en la medida.

Regla 2: las cifras significativas se cuentan de izquierda a derecha, a partir del primer dígito diferente de cero y hasta el digito dudoso.

Regla 3: al sumar o restar dos números decimales, el número de cifras decimales del resultado es igual al de la cantidad con el menor número de ellas.

Regla 4: al multiplicar o dividir dos números, el número de cifras significativas del resultado es igual al del factor con menos cifras.

Precisión y exactitud:

En ingeniería, ciencia, industria, estadística, exactitud y precisión no son equivalentes. Es importante resaltar que la automatización de diferentes pruebas o técnicas puede producir un aumento de la precisión. Esto se debe a que con dicha automatización, lo que logramos es una disminución de los errores manuales o su corrección inmediata.

Precisión: se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella.

Exactitud: se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacto es una estimación.

También se refiere a la aproximación de un numero o de una medida al valor verdadero que se supone representa.

Cuando expresamos la exactitud de un resultado se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero.

También es la mínima variación de magnitud que puede apreciar un instrumento.

Incertidumbre:

Incertidumbre también se le conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero.

Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a los diferentes resultados de un determinado evento.

Sesgo:

Existe sesgo cuando la ocurrencia de un error no aparece como un hecho aleatorio (al azar) advirtiéndose que este ocurre en forma sistemática

Es un alejamiento sistemático del valor verdadero a calcular.

1.3 TIPOS DE ERRORES

FACTORES QUE CONTRIBUYEN AL ERROR EN LOS CÁLCULOS NUMÉRICOS.

DEFINICIÓN DE ERROR

Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas. Esto incluye errores de truncamiento que resultan de representar aproximadamente un procedimiento matemático exacto, y los errores de redondeo, que resultan de presentar aproximadamente números exactos. Para los tipos de errores, la relación entre el resultado exacto o verdadero y el aproximado está dado por:

Valor verdadero = valor aproximado + error (Ec.1 )

Reordenando la ecuación Ec.1, se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el valor aproximado esto es:

Ev = valor verdadero – valor aproximado

Donde Ev se usa para redondear el valor exacto del error. Se incluye el subíndice v par dar a entender que se trata del “verdadero” error.

Un defecto es que muchas veces no se toma en consideración el orden de magnitud del valor que se está probando. Por ejemplo, un error de un centímetro es mucho más significativo si se está midiendo un remache que un puente. Una manera de medir las magnitudes de las cantidades que se están evaluando es normalizar el error respecto al valor verdadero, como en:

Error relativo fraccional = error / valor verdadero

Dónde:

Error = valor verdadero – valor aproximado.

El error relativo también se puede multiplicar por el 100% para expresarlo como Ev = (error verdadero/ valor verdadero) 100; Donde Ev denota el error relativo porcentual. El subíndice v significa la normalización del error al valor verdadero.

Para los métodos numéricos el valor verdadero únicamente se conocerá cuando se habla de funciones que se pueden resolver analíticamente. Sin embargo, en aplicaciones reales, no se conoce la respuesta verdadera. En estos casos, normalizar el error es una alternativa usando la mejor estimación posible del valor verdadero, esto es a la aproximación misma, como:

Ea = (error aproximado/ valor aproximado) 100

Donde el subíndice a significa que el error está normalizado a un valor aproximado.

Uno de los retos a que se enfrentas los métodos numéricos es el de determinar estimaciones del error en ausencia de conocimiento de los valores verdaderos. El error se calcula como la diferencia entre la aproximación previa y la actual. Por lo tanto, el error relativo porcentual está dado por

Ea =ABS ( ((aproximación actual- aproximación previa )/ aproximación actual) 100)

Si se cumple la relación anterior , entonces se considera que el resultado obtenido está dentro del nivel aceptable, es decir, aun error previamente fijado(Es):

Abs(Ea) <>

ERRORES DE REDONDEO

Los errores de redondeo se deben a que las computadoras solo guardan un número finito de cifras significativas durante un cálculo. Las computadoras realizan esta función de maneras diferentes; esta técnica de retener solo los primeros siete términos se llamó “truncamiento” en el ambiente de computación. De preferencia se llamara de corte, para distinguirlo de los errores de truncamiento. Un corte ignora los términos restantes de la representación decimal completa.

La mayor parte de las computadoras tienen entre 7 y 14 cifras significativas, los errores de redondeo parecerían no ser muy importantes. Sin embargo, hay dos razones del por qué pueden resultar críticos en algunos métodos numéricos:

1) Ciertos métodos requieren cantidades extremadamente grandes para obtener una respuesta. Además, estos cálculos a menudo dependen entre si, es decir, los cálculos posteriores son dependientes de los anteriores. En consecuencia, aunque un error de redondeo individual puede ser muy pequeño, el efecto de acumulación en el transcurso de la gran cantidad de cálculos puede ser significativo.

2) El efecto de redondeo puede ser exagerado cuando se llevan a cabo operaciones algebraicas que emplean números muy pequeños y muy grandes al mismo tiempo. Ya que este caso se presenta en muchos métodos numéricos, el error de redondeo puede resultar de mucha importancia.

ERRORES DE TRUNCAMIENTO

Los errores de truncamiento son aquellos que resultan al usar una aproximación en lugar de un procedimiento

...

Descargar como (para miembros actualizados) txt (17 Kb)
Leer 11 páginas más »
Disponible sólo en Clubensayos.com