ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Topografia


Enviado por   •  18 de Marzo de 2014  •  1.667 Palabras (7 Páginas)  •  567 Visitas

Página 1 de 7

Las cifras significativas son importantes pues permiten comunicar la precisión de las mediciones, plantear trabajo experimental seleccionando un instrumento más preciso y calcular cantidades con la información experimental.

La topografía está sujas a fallas propias de los aparatos, debido a esto ninguna medida en topografía es tan exacta, en topografía se debe minimizar o eliminar el equivocarse, ya que esto implica la repetición de los trabajos de campo, lo cual incrementa el tiempo de los costos, afectando la eficiencia y la economía

• Conocer las reglas y operaciones que se deben aplicar al momento de hacer uso de las cifras significativas.

INTRODUCCION

Al expresar un número real con muchas o infinitas cifras decimales, utilizamos expresiones decimales aproximadas, es decir, recurrimos al redondeo. Al realizar estas aproximaciones cometemos errores. Cuando utilizamos los números decimales para expresar mediciones concretas, se deben dar con una cantidad adecuada de cifras significativas. Se llaman cifras significativas a aquellas con las que se expresa un número aproximado. Sólo se deben utilizar aquellas cuya exactitud nos conste. El error absoluto suele ser menor que 5 unidades del lugar siguiente al de la última cifra significativa utilizada. El error relativo es tanto menor, cuanto más cifras significativas se utilicen.

Se aproxima un número cuando no se toman todas sus cifras o se sustituyen por ceros. Una aproximación lo es por defecto cuando resulta que es menor que el valor exacto al que sustituye y por exceso cuando es mayor. Una aproximación o valor aproximado de un número consiste en sustituirlo por otro próximo a él. Para ello se utilizan dos procedimientos: el redondeo y el truncamiento. Para redondear un número entero o decimal hasta un orden no se ponen las cifras anteriores a dicho orden, si la cifra siguiente es mayor o igual a 5 se aumenta a una unidad y en caso contrario se mantiene, sustituyendo las cifras que vienen a continuación de la de orden por ceros.

Se llaman cifras significativas de un número a aquellas que se utilizan en la aproximación, contando desde la primera cifra no nula hasta la cifra redondeada.

TEORIA DE ERRORES

Toda medición es una comparación de una magnitud o propiedad de un objeto con un patrón de referencia o un múltiplo o submúltiplo de éste. En una medición se trata de contestar la pregunta de cuántas partes hay que dividir el patrón para obtener la magnitud del objeto medido. Como, en general, una magnitud no resulta ser un número exacto de veces la del patrón, el procedimiento de medida puede resultar infinito.

Por este motivo, se deben aceptar límites en el proceso de medida, que conllevan errores. En general, una medida tiene dos aspectos que pueden causar error. El primero se refiere a la manera de efectuar la correspondencia con los puntos de referencia del patrón y el segundo se refiere al número de veces que se está dispuesto a repetir el proceso de agregar fracciones de la unidad patrón hasta considerar que la comparación está terminada.

No hay que confundir los errores con las equivocaciones. Mientras que los errores siempre están presentes en toda medición debido a las limitaciones aludidas, las equivocaciones son faltas graves ocasionadas por descuido, distracción, cansancio o falta de conocimientos.

Es necesario conocer los tipos y la magnitud de los errores posibles y la manera como se propagan para buscar reducirlos a un nivel razonable que no tenga incidencias desfavorables desde el punto de vista práctico.

CÁLCULO DE ERRORES: ERROR ABSOLUTO, ERROR RELATIVO.

Bien sea la medida da el aparato (directa) o utilizando una fórmula (indirecta) existe un tratamiento de los errores de medida. Podemos distinguir dos tipos de errores que se utilizan en los cálculos:

• Error absoluto. Es la diferencia entre el valor de la medida y el valor tomado como exacto. Puede ser positivo o negativo, según si la medida es superior al valor real o inferior (la resta sale positiva o negativa). Tiene unidades, las mismas que las de la medida.

• Error relativo. Es el cociente (la división) entre el error absoluto y el valor exacto. Si se multiplica por 100 se obtiene el tanto por ciento (%) de error. Al igual que el error absoluto puede ser positivo o negativo (según lo sea el error absoluto) porque puede ser por exceso o por defecto. no tiene unidades.

INSTRUMENTOS DE MEDIDA: SENSIBILIDAD, PRECISIÓN, INCERTIDUMBRE.

La parte fundamental de todo proceso de medida es la comparación de cierta cantidad de la magnitud que deseamos medir con otra cantidad de la misma que se ha elegido como unidad patrón. En este proceso se utilizan los instrumentos de medida que previamente están calibrados en las unidades patrón utilizado.

Los instrumentos de medida nos permiten realizar medidas directas (un número seguido de la unidad) de una magnitud.

Un instrumento de medida se caracteriza por los siguientes factores:

• Sensibilidad. Es la variación de la magnitud a medir que es capaz de apreciar el instrumento. Mayor sensibilidad de un aparato indica que es capaz de medir variaciones más pequeñas de la magnitud medida.

• Precisión. La medida que es capaz de apreciar un instrumento. Está relacionada con la sensibilidad. A mayor sensibilidad, menores variaciones es capaz de apreciar, medidas más pequeñas nos dará el instrumento.

Un instrumento de medida debe ser capaz de medir la cifra más pequeña de su escala.

• La incertidumbre está relacionada con el proceso de medida. Se trata del máximo error de la medida. Evidentemente, está relacionada con la precisión del instrumento. Por regla general se toma como incertidumbre la precisión del aparato, algunas veces aunque no sea demasiado

...

Descargar como (para miembros actualizados)  txt (10.5 Kb)  
Leer 6 páginas más »
Disponible sólo en Clubensayos.com