El experimento "Мétodos y patrones de medición, errores de medición y manejo analítico de errores”
Carlosyopasa1994Trabajo15 de Enero de 2014
2.809 Palabras (12 Páginas)507 Visitas
Practica 1: Medida de Longitud
Manuel camilo Gutiérrez
manuelguti_21@hotmail.com
Carlos Alberto Yopasa Bernal
carlosy1994@hotmail.com
1 RESUMEN
El presente artículo expone la metodología, datos y resultados obtenidos en la experimentación en el laboratorio; en el experimento “métodos y patrones de medición, errores de medición y manejo analítico de errores”, se realizaron diferentes mediciones equivalentes a un cuaderno, con el fin de obtener su área y dando al experimentador la posibilidad de adquirir mayor destreza en el manejo de instrumentos de medición y sus sistemas de unidades, e intentando asegurar la calidad en los procesos tratando de disminuir el margen de error.
Palabras claves: métodos, calidad, medición, procesos, errores.
2 ABSTRACT
Keywords: methods, quality measurement process errors.
3 INTRODUCCIÓN
La medición es algo fundamental en cualquier ciencia, desde sociales hasta el derecho, medir es algo muy importante. La física al ser un ciencia experimental y como tal una ciencia que depende de la medidas, resulta importante saber cómo se mide correctamente y más allá de esto, entender que obtener una sola medida (ya sea de longitud o de cualquier otra cosa) no es suficiente pues se cometen errores (ya sean sistemáticos o aleatorios) los cuales afectan la exactitud del dato obtenido.
4 OBJETIVOS
A continuación de enuncian los objetivos a cumplir en esta practica
4.1 OBJETIVO GENERAL
Comprender los conceptos de: errores de medición y manejo analítico de errores atreves de la medición de un cuaderno con una regla.
4.2 OBJETIVOS ESPECÍFICOS
Demostrar el concepto de incertidumbre experimental en mediciones sencillas utilizando una regla
Explicar el conocimiento específico ganado atreves de mediciones repetidas del largo y ancho del cuaderno
Aplicar los conceptos estadísticos de media, desviación estándar respecto a la media, error estándar de esas mediciones
Demostrar la propagación de errores mediante la determinación de la incertidumbre en el área calculada a partir de las mediciones de largo y ancho.
Comparar la propagación de errores predicha por la teoría estadística con la propagación implicada en el concepto más sencillo de cifras significativas.
5 MARCO TEÓRICO
La importancia de las mediciones crece permanentemente en todos los campos de la ciencia y la técnica. Medir consiste en comparar dos cantidades de la misma magnitud, tomando arbitrariamente una de ellas como unidad de medida.
La magnitud a medir se representa según la ecuación básica de mediciones:
M=nU Donde:
M: Magnitud a medir
n: Valor numérico de la magnitud
U: Unidad de medida
En el proceso de medir, surge que tan confiable es la medición realizada para su interpretación y evaluación, por la tanto se dice que la medición puede ser DIRECTA o INDIRECTA.
DIRECTA: El valor de la magnitud desconocida se obtiene por comparación con una unidad conocida
INDIRECTA: El valor se obtiene a partir de fórmulas que vincula una o más medidas directas
5.1 ERRORES DE MEDICIÓN Y SUS CLASIFICACIONES
El significado de la palabra “error”' no es muy preciso, puesto que con frecuencia autores diferentes lo emplean con sentidos diferentes. En un sentido amplio puede considerarse el error como una estimación o cuantificación de la incertidumbre de una medida. Cuanto más incierta sea una medida, tanto mayor será el error que lleva.
Clasificación de los errores: Suelen distinguirse dos tipos de errores: errores sistemáticos y accidentales o aleatorios.
Errores sistemáticos: Como su nombre indica, no son debidos al azar o a causas no controlables. Pueden surgir de emplear un método inadecuado, un instrumento defectuoso o bien por usarlo en condiciones para las que no estaba previsto su uso.
Los errores sistemáticos no son objeto de la teoría de errores, las causas probables pueden ser las siguientes:
Error de apreciación: Si el instrumento está correctamente calibrado la incertidumbre que tendremos al realizar una medición estará asociada a la mínima división de su escala o a la mínima división que podemos resolver con algún método de medición. La mínima cantidad que puede medirse con un instrumento la denominamos apreciación nominal. El error de apreciación puede ser mayor o menor que la apreciación nominal, dependiendo de la habilidad (o falta de ella) del observador.
Error de exactitud: Representa el error absoluto con el que el instrumento en cuestión ha sido calibrado.
Error de interacción: Esta incertidumbre proviene de la interacción del método de medición con el objeto a medir. Su determinación depende de la medición que se realiza y su valor se estima de un análisis cuidadoso del método usado.
Falta de definición en el objeto sujeto a medición: Con esta designamos la incertidumbre asociada con la falta de definición del objeto a medir y representa su incertidumbre intrínseca.
Error personal: Este es, en general, difícil de determinar y es debido a limitaciones de carácter personal. Un ejemplo de éste sería una persona con un problema de tipo visual.
Error de la elección del método: Corresponde a una elección inadecuada del método de medida de la magnitud. Este tipo de error puede ponerse de manifiesto cambiando el aparato de medida, el observador, o el método de medida.
Errores aleatorios:
Estos son simplemente errores en el sentido técnico de la palabra. Son incertidumbres debidas a numerosas causas incontrolables e imprevisibles que dan lugar a resultados distintos cuando se repite la medida en condiciones idénticas.
Los errores accidentales, o errores propiamente dichos, parecen fruto del azar, y por ello reciben el nombre de errores aleatorios. Pueden ser debidos a la acumulación de muchas incertidumbres sistemáticas incontrolables o bien pueden provenir de variaciones intrínsecamente aleatorias a nivel microscópico. En ambos casos el resultado es que las medidas de una magnitud siguen una distribución de probabilidad, que puede analizarse por medios estadísticos. Aunque la presencia de los errores accidentales no pueda evitarse, sí puede estimarse su magnitud por medio de estos métodos estadísticos [1].
5.2 EXACTITUD Y PRECISIÓN:
Exactitud: Indica cuan cercana esta una medición del valor real de la cantidad medida.
Precisión: Se refiere a cuanto concuerdan dos o más mediciones del valor real de la cantidad medida.
Exactitud y precisión son conceptos que se utilizan comúnmente como sinónimos. Sin embargo en términos de las medidas experimentales existe una distinción importante entre ellas. La exactitud se refiere a cuan cercano está el valor medido al valor aceptado. La precisión significa cuan cercanas están las medidas realizadas una de las otras. A mayor precisión, más cercanas son las medidas unas de las otras al repetirlas. Sin embargo, la precisión no implica exactitud.
Figura 1. Precisión y exactitud
En las figuras de la 1 a la 3 vemos la imagen de un tablero. En la figura 1 observamos buena precisión pero pobre exactitud. Aunque las medidas están juntas una de las otras, estas están alejadas del valor aceptado en el centro. En la figura 2 observamos una mala precisión y mala exactitud. Las medidas están lejanas entre sí y a la vez no se acercan al valor aceptado. En la figura 3 observamos una buena precisión y buena exactitud. Las medidas están cercanas entre sí y al valor aceptado.
Para obtener mayor exactitud hay que minimizar los errores sistemáticos. La precisión se logra al reducir los errores aleatorios. A manera general, existen dos tipos de números: los exactos y las medidas. El grado de exactitud o el grado de incertidumbre de una medida depende de la calidad del instrumento y la resolución de la escala [2].
5.3 CIFRAS SIGNIFICATIVAS
Las cifras significativas o dígitos significativos en una medida experimental que incluye todos los números que pueden ser leídos de la escala más un número estimado, las cifras significativas de un número son aquellas que tienen un significado real y, por tanto, aportan alguna información. Toda medición experimental es inexacta y se debe expresar con sus cifras significativas [3].
Reglas para establecer las cifras significativas:
Regla 1: En números que no contienen ceros, todos los dígitos son significativos.
Por ejemplo:
3,14159 → seis cifras significativas → 3,14159
5.694 → cuatro cifras significativas → 5.694
Regla 2: Todos los ceros entre dígitos significativos son significativos.
Por ejemplo:
2,054 → cuatro cifras significativas → 2,054
506 → tres cifras significativas → 506.
Regla 3: Los ceros a la izquierda del primer dígito que no es cero sirven solamente para fijar la posición del punto decimal y no son significativos.
Por ejemplo:
0,054 → dos cifras significativas → 0,054
0,0002604 → cuatro cifras significativas → 0,0002604
Regla 4: En un número con dígitos decimales, los ceros finales a la derecha del punto decimal son significativos.
Por ejemplo:
0,0540 → tres cifras significativas → 0,0540
30,00 → cuatro cifras significativas → 30,00
Regla 5: Si un número no tiene punto decimal y termina con uno o más ceros, dichos ceros
...