ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Multiplicacion Por Cero


Enviado por   •  16 de Octubre de 2013  •  866 Palabras (4 Páginas)  •  213 Visitas

Página 1 de 4

División por cero

En matemáticas, la división por cero es aquella división en la que el divisor es igual a cero. En aritmética y álgebra, es considerada una «indefinición» o «indeterminación» que puede originar paradojas matemáticas.

En los números naturales, enteros y reales, la división por cero no posee un valor definido, debido a que para todo número n, el producto n • 0 = 0, por lo que el 0 no tiene inverso multiplicativo. En otros cuerpos matemáticos, pueden existir divisores de cero, sin embargo, estos aparecen cuando el cero es el dividendo, no el divisor.

El problema surgió en los años 650, cuando en India se comenzó a popularizar el uso del cero y los números negativos. El primero en aproximarse al planteamiento de este problema fue el matemático indio Bhaskara I, quien escribió que , en el siglo XII.

En análisis matemático

Desde el punto de vista del análisis matemático, la indefinición de una división por cero puede solventarse mediante el concepto de límite. Supongamos que tenemos la siguiente expresión:

Donde n es un número natural (distinto de cero y de infinito). Entonces, para calcular el valor de f (0), se puede utilizar una aproximación del límite, por la derecha:

O por la izquierda:

Cuando el valor de x «tiende» a cero, n/x alcanza un valor inmensamente grande (positivo o negativo).

Se suele expresar diciendo: cuando x «tiende» a cero, n/x se «aproxima» a infinito:

Sin embargo, aunque aparentemente aceptable en la práctica, esta solución puede generar paradojas matemáticas, conocidas como diferentes infinitos. Algunos intentos en análisis matemático por definir formalmente la división por cero son las extensiones a la recta de los reales y la esfera de Riemann.

La expresión es una indefinición. Sin embargo, cuando n = 0, obtenemos la expresión que es una indeterminación

Una división por cero es en informática, y particularmente en programación, considerada como un clásico error lógico.

Puesto que muchos algoritmos informáticos clásicos de división usan el método de restas sucesivas, al ser el divisor cero, la resta como tal se ejecuta por siempre, ya que el dividendo nunca cambia. La aplicación en cuestión entra entonces en un bucle infinito.

Para prevenir esto, actualmente los procesadores matemáticos son capaces de detectar divisiones por cero en tiempo de ejecución, y llegado el caso, entregan informes de error distinguibles al sistema, para que éste termine el proceso que se está ejecutando.

Por su parte, los compiladores más modernos incorporan mensajes de error cuando una división por cero ocurre explícitamente, mientras que algunos incluso

...

Descargar como (para miembros actualizados)  txt (5 Kb)  
Leer 3 páginas más »
Disponible sólo en Clubensayos.com