ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Patrón de medición. Error sistemático


Enviado por   •  6 de Marzo de 2016  •  Documentos de Investigación  •  1.377 Palabras (6 Páginas)  •  117 Visitas

Página 1 de 6

Antecedentes.

Medir

Es lo que se obtiene a través de la acción de medir la palabra medir proviene del latín metri que significa comparar una cantidad obtenida con una cantidad (medida) convencional.

Patrón de medición

Es una representación física de la unidad de medición. Una unidad se realiza con referencia a un patrón físico arbitrario o a un fenómeno natural que incluye constantes físicas y atómicas. Por ejemplo la unidad fundamental de masa en el SI es el Kilogramo.

Error sistemático

Son una desviación constante de todas las medidas ya sea siempre hacia arriba o siempre hacia abajo del valor real y son producidos por ejemplo por la falta de calibración del instrumento de medición. También esta relacionado con la destreza del operador

Error aleatorio

Aparecen cuando mediciones repetidas de la misma variable dan valores diferentes, con igual probabilidad de estar por arriba o por debajo del valor real. Cuando la desviación de las medidas es pequeña se dice que la medida es precisa

Sistema internacional de unidades SI

En 1790 a finales de la revolución Francesa le correspondió a la academia de Ciencias de Paris hacer las proposiciones para crear un sistema de medidas que  pudiera ordenar el caos que existía en aquel entonces. Excepcionales fueron los trabajos de los hombres de ciencia de aquel entonces para establecer un sistema, entre los cuales se pueden citar: Lavoiser, Coulomb,Borda, Berthollet, Lagrane y Delambre. Junto con otros científicos lograron establecer el sistema métrico decimal.

Se instauro en 1960 en la XI Conferencia General de Pesas y Medidas durante el cual se reconocieron seis unidades físicas básicas. En 1971 se añadió la séptima unidad el mol.

Metrología

Es la ciencia que tiene por objetivo el estudio de las propiedades medibles, las escalas de medida, los sistemas de unidades, los métodos y técnicas de medición así como la evolución de lo anterior, la valoración de la calidad de las mediciones y su mejora constante, facilitando el progreso científico.

Método Científico

Se refiere a la serie de etapas que hay que recorrer para obtener un conocimiento valido desde el punto de vista científico, utilizando para eso instrumentos que resulten fiables. Lo que hace este método es minimizar la influencia de la subjetividad del científico en su trabajo.

Exactitud

Es la puntualidad y fidelidad en la ejecución  de algo. Cuando alguien ejecuta una acción con exactitud el resultado obtenido es aquel que se pretendía. La exactitud implica inexistencia de error.

Precisión

Es la necesidad y obligación de exactitud a la hora de ejecutar algo.

Cifras significativas

Es aquella que aporta información no ambigua ni superflua acerca de determinada medida experimental. Son aquellas que se conocen de manera razonable confiable, de este modo la incertidumbre esta implícita en el último digito y es igual a la mitad de una unidad del orden del digito significativo.

Considérese por ejemplo que la longitud de un objeto se registró como15.7 cm. Esto significa que la longitud se midió con una resolución de 0.1 cm (1mm) y que su valor real cae entre 15.65 cm y 15.75 cm. Si la medida se hiciera con una resolución de 0.01 cm (0.1mm) se tendría que haber registrado como 15.70 cm.

Reglas de redondeo

Si la ultima cifra es menor a cinco se suprime. Si la última cifra es mayor o igual a cinco se suprime la ultima y la anterior se incremente en uno

Instrumentos digitales

En este tipo de instrumentos la medición proporciona una información discontinua expresada por un número de varias cifras. La escala de indicación continua, es reemplazada por la escala de numeración de indicación discontinua.

Instrumentos analógicos

 Se refiere a las magnitudes o valores que varían con el tiempo en forma continua como la distancia u la temperatura. Esta información es muy difícil de almacenar, manipular, comparar, calcular y recuperar la información con exactitud

Incertidumbre

Parámetro, asociado al resultado de una medición que caracteriza la dispersión de los valores que podrían ser razonablemente atribuidos al mensurando. No es posible conocer con certeza absoluta el valor verdadero de una magnitud. La incertidumbre se estima, no es una cuantificación exacta.

Diferencia entre error e incertidumbre

El error se define como la diferencia entre un valor medido de una magnitud y un valor de referencia, mientras que la incertidumbre es un parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un mensurando.

Mensurando

Magnitud particular sujeta a medición.

Las medidas de tendencia central

Son valores que se ubican al centro de un conjunto de datos ordenados según su magnitud. Generalmente se utilizan 4 de estos valores también conocidos como estadígrafos, la media aritmética, la mediana, la moda y al rango medio. 

La media aritmética es la medida de posición utilizada con más frecuencia. Si se tienen n valores de observaciones, la media aritmética es la suma de todos y caca uno de los valores dividida entre el total de valores: Lo que indica que puede ser afectada por los valores extremos, por lo que puede dar una imagen distorsionada de la información de los datos.

...

Descargar como (para miembros actualizados)  txt (9 Kb)   pdf (77.5 Kb)   docx (19.5 Kb)  
Leer 5 páginas más »
Disponible sólo en Clubensayos.com