ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Aplicaciones de los Métodos Numéricos


Enviado por   •  11 de Octubre de 2020  •  Síntesis  •  1.111 Palabras (5 Páginas)  •  451 Visitas

Página 1 de 5

[pic 1]UNIVERSIDAD AUTONOMA DE CHIAPAS[pic 2]

FACULTAD DE INGENIERIA, CAMPUS I

METODOS NUMERICOS

JOSE ANTONIO JONAPA PEREZ

Aplicaciones de los Métodos Numéricos

Para saber acerca de los métodos numéricos, primero debemos de saber que son los métodos numéricos, los métodos numéricos constituyen a técnicas mediante las cuales es posible formular problemas matemáticos, de tal forma que puedan resolverse utilizando operaciones aritméticas. Los métodos numéricos, independientemente de cual área sea, se necesitan de un buen número de tediosos cálculos aritméticos. Aunque gracias al desarrollo de la tecnología el papel de los métodos numéricos se ha considerado muy importante, especialmente en el área de la ingeniería, pues en esta rama los cálculos son esenciales en cualquier momento.

Las aplicaciones que tienen los métodos numéricos son muchos, están presentes en la gastronomía, por ejemplo al hacer una gran cantidad de comida se necesita conocer cuanta cantidad de ingrediente se debe usar para no desperdiciar mucho pero que sea suficiente para que todos queden satisfechos, la medicina también utiliza los métodos numéricos, por ejemplo al momento de introducir algún medicamento a un paciente grave, este debe de conocer que cantidad debe de ser la necesaria, y así como estos hay muchas áreas que utiliza los métodos numéricos, pero los métodos numéricos son fundamentales o esenciales en el área de la ingeniería, porque esta es una herramienta fundamental que nos ayuda a calcular mucho más efectivamente lo que necesitemos.

Como sabemos, las computadoras en su nacimiento no tenían la gran capacidad que tienen ahora y eran demasiado costosas, por esa razón al principio muchos ingenieros siguieron utilizando simples procedimientos analíticos, pero la reciente evolución que tuvieron las computadoras ha permitido que muchas personas no solo ingenieros puedan aprovechar de las grandes capacidades que tiene una computadora y el gran impulso que le dio a los métodos numéricos, pues ahora son más eficientes y menos costosas.

Los métodos numéricos -ya hablando en el ámbito de la ingeniería- es una gran herramienta que esta de la mano con las tecnologías, especialmente las computadoras, pero, así como es una gran herramienta también tiene su nivel de complejidad de la cual debemos de saber lo suficiente para poder utilizar esta herramienta, pues si no sabemos nada acerca de los métodos numéricos o no sabemos cómo utilizarlo en una computadora esta gran herramienta se nos hace inútil y por lo tanto no nos funciona.

Para obtener estos conocimientos se necesita comprender el funcionamiento y normalmente esto se aprende de forma empírica es decir mediante la observación y su experimentación, pero esto es solo la mitad del camino para poder entender correctamente el funcionamiento, la otra parte se obtiene gracias a los grandes pensadores o los experimentos que se an ido realizando durante el tiempo y se vuelven a repetir y por lo tanto este conlleva generar unas leyes y así crear un análisis teórico, y esta es la otra parte para obtener una buena comprensión de los métodos numéricos.

Conceptos Básicos

Error: Los errores numéricos se generan con el uso de aproximaciones para representar las operaciones y cantidades matemáticas. El error numérico es una medida del ajuste o cálculo de una magnitud con respecto al valor real o teórico que dicha magnitud tiene. El concepto de error es consustancial con el cálculo numérico. En todos los problemas es fundamental hacer un seguimiento de los errores cometidos a fin de poder estimar el grado de aproximación de la solución que se obtiene.

  • Error absoluto.

Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida. El error absoluto es el valor absoluto de la diferencia entre el valor exacto y el valor aproximado. Hay autores que definen el error absoluto como la diferencia entre el valor aproximado y el valor exacto, donde la diferencia únicamente está en el signo ya que no se toma como valor absoluto. Sin embargo, podríamos tomar como fórmula general la siguiente expresión: [pic 3]

...

Descargar como (para miembros actualizados)  txt (7 Kb)   pdf (306 Kb)   docx (751 Kb)  
Leer 4 páginas más »
Disponible sólo en Clubensayos.com