ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Introducción A Los Métodos Numéricos


Enviado por   •  22 de Junio de 2014  •  1.629 Palabras (7 Páginas)  •  199 Visitas

Página 1 de 7

INTRODUCCIÓN A LOS MÉTODOS NUMÉRICOS.

Por: M. C. E. René Cecil

Importancia de los métodos numéricos.

Cuando hablamos de computación aplicada en el campo de la ingeniería nos referimos también a los métodos numéricos. Si consideramos que la computadora digital sólo puede efectuar operaciones aritméticas, entonces el ingeniero debe poseer el conocimiento de los métodos numéricos a los que puede recurrir para resolver, en forma eficiente, los diferentes tipos de problemas que se presentan en el campo de la ingeniería.

Los métodos numéricos constituyen algoritmos, mediante los cuales es posible formular problemas matemáticos, de tal forma que pueden resolverse utilizando operaciones aritméticas. Si bien hay diferentes tipos de métodos numéricos, estos poseen una característica en común, invariablemente necesitan de un gran número de tediosos cálculos aritméticos, de aquí la necesidad de hacer uso de la computación.

Los métodos numéricos nos presentan algoritmos donde se trata de aproximar de una manera óptima las soluciones de problemas formulados matemáticamente.

Luego, el objetivo principal de los métodos numéricos es encontrar soluciones aproximadas a problemas complejos utilizando sólo operaciones simples de aritmética. Se requiere de una secuencia de operaciones algebraicas y lógicas que producen la aproximación al problema matemático.

Los métodos numéricos pueden ser aplicados para resolver procedimientos matemáticos en:

Resolución de polinomios

Operaciones con matrices

Resolución de sistemas de ecuaciones

Cálculo de derivadas

Cálculo de integrales

Resolución de ecuaciones diferenciales

Optimización

Ajuste de curvas

Todos estos procedimientos en los diversos campos de la ingeniería: Civil, Química, Eléctrica, Mecánica, Electrónica, Industrial, Sistemas Computacionales, etc.

Definición de conceptos básicos y teoría del error.

Algoritmo: Un algoritmo consiste, dado un estado inicial y un ingreso de datos, en una lista ordenada lógicamente de operaciones y/o pasos sucesivos que tienen el propósito de llegar a un estado final y lograr una solución para un problema en matemática, informática y disciplinas afines. Un algoritmo representativo es finito, es preciso, es definido, tiene tanto un inicio como un final y es, por lo menos, eficaz en la resolución de un problema.

Métodos numéricos: Conjunto de algoritmos por medio de los cuales es factible formular problemas matemáticos de manera tal que su resolución se logre mediante operaciones aritméticas simples.

Análisis numérico: Conjunto de algoritmos por medio de los cuales se posibilita formular problemas matemáticos de forma tal que su resolución se logre por medio de operaciones aritméticas simples, considerando los errores que hayan sido generados por el procedimiento utilizado.

En ingeniería, el concepto de error se aplica al valor de inexactitud o incertidumbre en la determinación del resultado de una medición. Los errores numéricos se generan al utilizar aproximaciones para la representación de operaciones y cantidades matemáticas exactas.

Clasificación de errores en los métodos numéricos.

Los errores en cálculos y mediciones pueden ser clasificados de acuerdo a su exactitud y su precisión.

Exactitud o error absoluto: Esta se refiere a qué tan cercano está el valor calculado o medido del valor verdadero.

Precisión: La precisión de un valor calculado se refiere al error absoluto (valor verdadero – valor aproximado) o al error relativo (error absoluto dividido entre el valor verdadero y multiplicado por 100) o porcentual, lo que nos dice qué tan cercanos se encuentran, unos de otros, diversos valores calculados o medidos.

También es oportuno caracterizarlos de acuerdo a su ocurrencia, siendo los más comunes: los errores de redondeo y errores de truncamiento. Además, existe un tipo de error que es dependiente de los dos anteriores: el error propagado.

Errores de redondeo. Son aquellos errores que se deben a que las computadoras sólo representan cantidades con un número finito de dígitos. Por ejemplo, si tomamos la fracción 34/7 , el resultado conocido es 4.85714285…, redondeando a dos decimales, tenemos 4.85 solamente, su expresión como fracción sería 485/100 , y esto nos genera un error.

Errores de truncamiento. Son los errores que representan la diferencia entre una formulación matemática exacta de un problema y su aproximación obtenida por un método numérico. Supóngase que deseamos calcular 25/7 , se conoce que el resultado de tal fracción es la cantidad 3.57142857… Si se trunca esta cantidad a dos decimales, o sea, 3.57 solamente, tal expresión como fracción sería 1785/500 , y tal resultado está originando un error.

Error propagado. El error propagado viene a ser el error en los pasos sucesivos del proceso debido a la ocurrencia de un error anterior.

Dígitos significativos. Son los dígitos de una cifra o número que pueden ser utilizados de manera confiable. Estos son el número de dígitos que se dan con certidumbre, más uno que ha sido estimado. Por ejemplo, el número π, éste se define como 3.14159264….hasta el infinito, normalmente se maneja la cantidad de 3.1416 donde todos ellos son dígitos significativos, los dígitos de 3.141 poseen certidumbre y, el dígito 6, es estimado.

Software

...

Descargar como (para miembros actualizados)  txt (10 Kb)  
Leer 6 páginas más »
Disponible sólo en Clubensayos.com