ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Almacenamientos de los números en las computadoras


Enviado por   •  13 de Octubre de 2013  •  Tutoriales  •  1.121 Palabras (5 Páginas)  •  218 Visitas

Página 1 de 5

Introducción

Los errores en una computadora y en operaciones de cálculo se deben a muchas variables, esta asignatura nos permite estudiar y conocer como se producen los errores y las estrategias idóneas para minimizarlos en las operaciones numéricas realizadas.

En el presente trabajo de investigación daremos a conocer como se almacenan los números en las computadoras, los errores de redondeo y truncamiento, la causa principal de los errores numéricos las estrategias que nos permiten minimizar el margen de error.

Almacenamientos de los números en las computadoras

El almacenamiento se pude realizar con una cantidad determinadas de bits. Los bits es una unidad de medida de formación equivalente a la elección entre dos posibilidades igualmente probables. El número de bits también se conoce con el nombre de palabra y estás van de 8 hasta 64 bits. Una palabra almacena un número, sin embargo muchas veces es necesario más de una palabra para el almacenamiento de ciertos números.

Ejemplos:

Si se quiere almacenar números enteros en una palabra de 16 bits, el primero de estos representa el signo del número (un cero es un signo positivo “ + “ y uno un signo negativo “-“ ). Los 13 bits restantes pueden usarse para guardar números binarios de 0 a 27767 (2^13-1) es decir una palabra de 16 bits puede contener un numero cualquiera entre – 27768+27767.

Para números reales se emplea la representación binaria punto flotante:

0. d1d2d3d4d5d6d7d8x2 〖d’〗_(1 ) 〖d’〗_2 〖d’〗_3 〖d’〗_4 〖d’〗_5 〖d’〗_6 〖d’〗_7

Donde di con i=1…8 representa la mantisa, y d’j con j=1…7 la característica. El primer bit del exponente presenta el signo de este. La mantisa es la parte decimal de logaritmo.

Las representaciones numéricas más comunes de una computadora

Char

Byte

Short

etc.

〖28345〗_10 〖=110111010111001〗_2

0 1 1 0 1 1 1 0 1 0 1 1 1 0 0 1

(+)

Causas principales de errores en los métodos numéricos

Los métodos numéricos son herramientas muy poderosas para a solución de problemas. Pueden manejar sistemas de ecuaciones grandes, no linealidades y geometrías complicadas, comunes en la ingeniería. Al mismo tiempo se aprende a conocer y controlar los errores de aproximación que son inseparables de los cálculos numéricos a gran escala.

Error inherente

Es el error de los datos de entrada que puede estar dado por la precisión en la medición de los datos, por la representación numérica, por provenir de cálculos previos.

Error humano

Es el error que se produce por la intervención Humana, ya sea por una mala transcripción o interpretación incorrecta de los datos originales, por programas de computación mal hechos y/o fallas en el diseño, implementación o configuración de programas o computadoras.

La última fuente de error suele ser asociada al concepto coloquial de «error». Desde la óptica del análisis numérico, los dos últimos errores están fuera de su alcance, si bien no deben ser despreciados a la hora de evaluar los resultados obtenidos, en particular, el debido al modelo matemático.

Error de formulación

Los errores de formulación o de modelamiento degeneran en lo que se podría considerar como un modelo matemático incompleto, ya que si se está usando un modelo deficiente, ningún método numérico generara los resultados adecuados.

Errores de truncamiento y redondeo

Error de redondeo

El error de redondeo tiene que ver con el uso de maquinas que tienen memoria finita para representar magnitudes que tienen precisión infinita. Es también importante indicar que aunque el error de redondeo es inevitable puede reducirse utilizando algoritmos adecuados y ciertos trucos al momento de programarlos.

Por

...

Descargar como (para miembros actualizados)  txt (7.6 Kb)  
Leer 4 páginas más »
Disponible sólo en Clubensayos.com