ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Introduccion A Los Metodos Nuemericos


Enviado por   •  12 de Enero de 2015  •  627 Palabras (3 Páginas)  •  142 Visitas

Página 1 de 3

Unidad 1. Introducción a los Métodos Numéricos

1.1 Concepto de Métodos Numéricos

Los métodos numéricos son técnicas mediante las cuales es posible formular problemas matemáticos de tal forma que puedan resolverse usando operaciones aritméticas. Hay muchos tipos de métodos numéricos, y comparten una característica común: invariablemente se deben realizar un buen número de tediosos cálculos aritméticos.

Los métodos numéricos son herramientas muy poderosas para a solución de problemas. Pueden manejar sistemas de ecuaciones grandes, no linealidades y geometrías complicadas, comunes en la ingeniería. También es posible que se utilice software disponible comercialmente que contenga métodos numéricos. El uso inteligente de estos programas depende del conocimiento de la teoría básica de estos métodos; además hay muchos problemas que no pueden plantearse al emplear programas hechos, conociendo bien los métodos numéricos se puede diseñar programas propios y así no comprar software costoso. Al mismo tiempo se aprende a conocer y controlar los errores de aproximación que son inseparables de los cálculos numéricos a gran escala.

Los métodos numéricos son un medio para reforzar la comprensión de las matemáticas, porque profundizan en los temas que de otro modo resultarían obscuros, esto aumenta su capacidad de comprensión y entendimiento de la materia.

1.2 Tipos de Errores

Error de redondeo: Se originan al realizar los cálculos que todo método numérico o analítico requieren y son debidos a la imposibilidad de tomar todas las cifras que resultan de operaciones aritméticas como los productos y los cocientes, teniendo que retener en cada operación el número de cifras que permita el instrumento de cálculo que se esté utilizando.

Error de truncamiento: Existen muchos procesos que requieren la ejecución de un número infinito de instrucciones para hallar la solución exacta de un determinado problema. Puesto que es totalmente imposible realizar infinitas instrucciones, el proceso debe truncarse. En consecuencia, no se halla la solución exacta que se pretendía encontrar, sino una aproximación a la misma.

Error numérico total: Se entiende como la suma de los errores de redondeo y truncamiento introducidos en el cálculo. Mientras más cálculos se tengan que realizar para obtener un resultado, el error de redondeo se irá incrementando.

Errores humanos: Son los errores por negligencia o equivocación. Las computadoras pueden dar números erróneos por su funcionamiento. Actualmente las computadoras son muy exactas y el error es atribuido a los hombres. Se pueden evitar con un buen conocimiento de los principios fundamentales y con la posesión de métodos y el diseño de la solución del problema. Los errores humanos por negligencia son prácticamente inevitables

...

Descargar como (para miembros actualizados)  txt (4.3 Kb)  
Leer 2 páginas más »
Disponible sólo en Clubensayos.com