ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

MEDICIONES Y SUS ERRORES. INCERTIDUMBRE, PRECISIÓN Y EXACTITUD


Enviado por   •  12 de Abril de 2021  •  Informes  •  1.459 Palabras (6 Páginas)  •  761 Visitas

Página 1 de 6

[pic 1]

MEDICIONES Y SUS ERRORES. INCERTIDUMBRE, PRECISIÓN Y EXACTITUD

RESUMEN

En nuestra primera practica realizamos diferentes medidas a diferentes objetos, con distintos instrumentos de medición con el fin de obtener unos resultados específicos, como lo es poder comparar la incertidumbre de los objetos, la precisión, la exactitud, entre otros. Todo esto con el fin de poder manejar adecuadamente dichos instrumentos de medición y poder logara unos buenos resultados de laboratorio; cumpliendo con los siguientes objetivos:

Realizar los procesos de medición y cálculo de errores de una manera precisa, para así poder obtener resultados viables en nuestro laboratorio, pues se sabe que dichos resultados están sujetos a errores significativos ya sean externos o premeditados, de ahí la importancia de un buen proceso de medición y así que nuestros resultados nos aporten sustentabilidad y confianza en nuestros resultados.

Claridad a la hora de explicar un análisis y conclusión de laboratorio, pues la información analizada y obtenida en nuestro laboratorio, podrá ser fácil de comprender a la hora de exponer.

  1. Introducción

En este trabajo realizado se buscó en primera instancia comprender la importancia de un adecuado proceso de medición y a su vez del cálculo de sus errores, ya que es muy repetitivo a la hora de la toma de datos se presenten múltiples errores. Las cantidades físicas las cuales determinamos fueron incertidumbre, la precisión y la exactitud de medida, estas fueron dadas para aprender de la manera correcta su adecuado uso. Antes de poder dar a cabo la práctica, debemos tener una base de conocimientos anteriormente adquiridos, estos constas de fenómenos los cuales resolveremos a lo largo del laboratorio. Las leyes físicas la cuales nos darán una guía teórica que debemos seguir. La metodología usada consiste una serie de procesos el cual debemos seguir paso a paso como se nos indica, comenzando con la realización de un pre-informe, este busca que se cree una familiaridad con la temática que se va a llevar a cabo en el laboratorio. Luego procedemos a la toma de datos, esta nos facilita toda la información numérica para la realización de cálculos y posteriormente procedemos a realizar un análisis de toda la información obtenida para luego así dar unca conclusión al fenómeno propuesto. De esta forma estamos dando uso de los procesos de medición y la comprensión de la importancia de estos mismos.

  1.  OBJETIVO GENERAL

Buscamos en primera instancia llevar a cabo un buen proceso de medición, en cual lleva una serie de pasos que se deben seguir de forma adecuada para no caer en el error. A este proceso no se le da la debida importancia, por eso demostraremos de manera sencilla el proceso adecuando para realizar una toma de medidas.

  1. Objetivos Específicos

        Descubrir los pasos que debemos llevar a cabo en el proceso de medición

•        Realizar los procesos de medición y cálculo de errores de una manera precisa

•        Claridad a la hora de explicar un análisis y conclusión de laboratorio

  1. Marco Teórico

“Precisión se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión. Una medida común de la variabilidad es la desviación estándar de las mediciones y la precisión se puede estimar como una función de ella. Es importante resaltar que la automatización de diferentes pruebas o técnicas puede producir un aumento de la precisión. Esto se debe a que, con dicha automatización, lo que logramos es una disminución de los errores manuales o su corrección inmediata. No hay que confundir resolución con precisión.” (Wikipedia)

“Exactitud se refiere a cuán cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo de una estimación. Cuanto menor es el sesgo más exacto es una estimación. Cuando se expresa la exactitud de un resultado, se expresa mediante el error absoluto que es la diferencia entre el valor experimental y el valor verdadero.” (Wikipedia)

El error absoluto de una medida (εa) es la diferencia entre el valor real de la medida (X) y el valor que se ha obtenido en la medición (Xi).

εa=X−Xi

El error absoluto puede ser un valor positivo o negativo, según si la medida es superior al valor real o inferior y además tiene las mismas unidades que las de la medida.

Para calcular el error absoluto de una medida es imprescindible conocer en primer lugar qué valor se considera como real. Por norma general ese valor es la media de los valores obtenidos al realizar un número n de mediciones en las mismas condiciones.

Es el cociente entre el error absoluto y el valor que consideramos como exacto (la media). Al igual que el error absoluto puede ser positivo o negativo porque puede se puede producir por exceso o por defecto y al contrario que él no viene acompañado de unidades.

...

Descargar como (para miembros actualizados)  txt (9 Kb)   pdf (113 Kb)   docx (49 Kb)  
Leer 5 páginas más »
Disponible sólo en Clubensayos.com