ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Resumen Exactitud Y Precision En Mediciones Electricas

xfriki2 de Marzo de 2014

815 Palabras (4 Páginas)1.126 Visitas

Página 1 de 4

Exactitud y precisión

En realidad el valor verdadero de una medición no se puede conocer, por tanto para poder hablar del mismo se introducen los conceptos de precisión y exactitud. donde exactitud y precisión no son equivalente.

La verdad es que la exactitud y la precisión a menudo son intercambiados en el lenguaje coloquial por las personas no letradas en el tema, lo cierto del caso es que son palabras que NO ADMITEN SER INTERCAMBIADAS bien claro por lo que representa cada una.

Definición 1

Se denomina “exactitud” a la capacidad de un instrumento de medir un valor cercano al valor de la magnitud real. en otras palabras mientras más cercano al valor real este, el instrumento será más exacto, aunque al final esa terminología no se usa, puesto que un instrumento cumple o no cumple a las demandas del diseño.

Definición 2

Exactitud se refiere a que tan cerca del valor real se encuentra el valor medido. En términos estadísticos, la exactitud está relacionada con el sesgo (en estadística es la diferencia entre el valor estipulado y el obtenido) de una estimación. Cuanto menor es el sesgo más exacta es una estimación.

Precisión o repetibilidad: En cuanto a instrumentos analogicos

Se refiere a la dispersión del conjunto de valores obtenidos de mediciones repetidas de una magnitud. Cuanto menor es la dispersión mayor la precisión.

La “precisión” es un término relacionado con la confiabilidad de un instrumento, es decir, si un instrumento proporciona resultados similares cuando se mide un material de referencia de manera repetida, entonces el instrumento es preciso. Por ejemplo, si se mide con un micrómetro un patrón de longitud 10 o 15 veces y la desviación estándar de los resultados de las mediciones es pequeña. De la misma manera depende de la aplicación si la precisión de un instrumento es aceptable o no.

Precisión en cuanto a instrumentos digitales:

En informática, se denomina asimismo precisión al número de bits usados para representar un valor.

La “precisión” es la cantidad de información que puede brindar un instrumento digital, en otras palabras la cantidad de unidades relacionadas a la cantidad de dígitos mostrados:

Ejemplo:

un instrumentos con pantalla 1.8.8.8.8 tiene 4 dígitos y medio o 4 1/2 dígitos.

un instrumentos con pantalla 8.8.8.8 tiene 4 dígitos.

un instrumentos con pantalla 1.8.8.8 tiene 3 dígitos y medio o 3 1/2 digitos.

nota: existe un error mínimo relacionado a la pantalla digital el cual tiene que ver con la sensibilidad y depende del rango donde se trabaje, A dicha sensibilidad se le puede conocer la exactitud cuando es dada por el fabricante y seria el unico momento donde la exactitud y la precisión pueden guardar una relación.

cálculo experimental de la exactitud:

exactitud = 1- |Error relativo máximo|

Error relativo máximo= Error Absoluto*100/(rango max - rango min)

nótese que si el error es 0 la exactitud será del 100%

• El error relativo máximo es un caso particular, no guarda relación con el error relativo convencional.

• La diferencia de los rangos también recibe el nombre de alcance

Error Absoluto: es la diferencia entre el valor verdadero y el valor medido. tome en cuenta que se utiliza el valor absoluto.

Error relativo: es la diferencia entre el valor verdadero y el valor medido, comparada con alguno otro valor (normalmente el verdadero), se puede decir entonces que será relativo a un valor en específico, y normalmente se presenta en porcentaje.

Rango o gama:

El rango es el margen entre los cuales el instrumento está destinado a medir, ejemplo: para un voltímetro el rango de medición de voltaje

...

Descargar como (para miembros actualizados) txt (5 Kb)
Leer 3 páginas más »
Disponible sólo en Clubensayos.com