ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Introduccion A Los Metodos Numericos


Enviado por   •  7 de Abril de 2014  •  3.987 Palabras (16 Páginas)  •  417 Visitas

Página 1 de 16

UNIDAD I

INTRODUCCION A LOS METODOS NUMERICOS

1.1 IMPORTANCIA DE LOS METODOS NUMERICOS

Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. Nos vuelven aptos para entender esquemas numéricos a fin de resolver problemas matemáticos, de ingeniería y científicos en una computadora, reducir esquemas numéricos básicos, escribir programas y resolverlos en una computadora y usar correctamente el software existente para dichos métodos y no solo aumenta nuestra habilidad para el uso de computadoras sino que también amplia la pericia matemática y la comprensi6n de los principios científicos básicos.

El análisis numérico trata de diseñar métodos para “aproximar” de una manera eficiente las soluciones de problemas expresados matemáticamente. El objetivo estas soluciones a problemas complejos es utilizar sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático.

“Los métodos numéricos son herramientas muy poderosas para la solución de problemas. Son capaces de manejar sistemas de ecuaciones grandes, no linealidades y geometrías complicadas, comunes en la práctica de la ingeniería y, a menudo, imposibles de resolver analíticamente. Por lo tanto, aumentan la habilidad de quien los estudia para resolver problemas.”

Numerical methods 6th Ed

Chapra y Canale

Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:

• Cálculo de derivadas

• Integrales

• Ecuaciones diferenciales

• Operaciones con matrices

• Interpolaciones

• Ajuste de curvas

• Polinomios

1.2 CONCEPTOS BÁSICOS: CIFRA SIGNIFICATIVA, PRECISIÓN, EXACTITUD, INCERTIDUMBRE Y SESGO

Cifra significativa:

Es como aquella que aporta información no ambigua ni superflua acerca de una determinada medida experimental, las cifras significativas de un numero vienen determinadas por su error. Son cifras que ocupan una posición igual o superior al orden o posición de error. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos.

1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar qué tan precisos son los resultados obtenidos.

2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras.

“Las cifras significativas de un numero son aquellas que pueden ser usadas de forma confiable. […] Los ceros no siempre son cifras significativas, ya que pueden usarse solo para ubicar el punto decimal.”

Numerical methods 6th Ed

Chapra y Canale

Reglas de operaciones con cifras significativas.

Regla 1: Los resultados experimentales se expresan con una sola cifra dudosa, e indicando con + - la incertidumbre en la medida.

Regla 2: Las cifras significativas se cuentan de izquierda a derecha, a partir del primer dígito diferente de cero y hasta el digito dudoso.

Regla 3: Al sumar o restar dos números decimales, el número de cifras decimales del resultado es igual al de la cantidad con el menor número de ellas.

Regla 4: Al multiplicar o dividir dos números, el número de cifras significativas del resultado es igual al del factor con menos cifras.

Precisión:

Se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Es decir, que tan cercano está el valor individual medio o calculado con respecto a otros.

Exactitud

Se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación.

“En la figura se puede imaginar, los agujeros en cada blanco como las predicciones en una técnica numérica, mientras que el centro del blanco representa la verdad. La inexactitud (conocida también como sesgo) se define como un alejamiento sistemático de la verdad. Por lo tanto, aunque los disparos en la figura c están más juntos que los de la figura a los dos casos son igualmente inexactos, ya que ambos se centran en la esquina superior izquierda del blanco. La imprecisión (también llamada incertidumbre), sobre el otro lado se refiere a la magnitud de esparcimiento de los disparos. Por lo tanto, aunque as figuras b y d son por igual exactas (centradas respecto al blanco), la ultima es más precisa, ya que los disparos están en un grupo más compacto.”

Numerical methods 6th Ed

Chapra y Canale

Incertidumbre:

Incertidumbre también se le conoce como Imprecisión. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero. Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a los diferentes resultados de un determinado evento.

Sesgo:

Existe sesgo cuando la ocurrencia de un error no aparece como un hecho aleatorio (al azar) advirtiéndose que este ocurre en forma sistemática. Es un alejamiento sistemático del valor verdadero a calcular.

1.3 TIPOS DE ERRORES

Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas. Estos incluyen errores de truncamiento que resultan de representar aproximadamente un procedimiento

...

Descargar como (para miembros actualizados)  txt (17.3 Kb)  
Leer 15 páginas más »
Disponible sólo en Clubensayos.com