ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Teroria De Error


Enviado por   •  23 de Octubre de 2013  •  6.589 Palabras (27 Páginas)  •  208 Visitas

Página 1 de 27

TEORIA DEL ERROR

1. Introducción.2. Algunos conceptos básicos.3. Clasificación de los errores.4. Cifras significativas.5. Histogramas y distribución estadística. 6. Error de una magnitud que se mide una única vez. 7. Error de una magnitud que se mide directamente N veces.8. Combinación de12. Bibliografía. 1. Introducción

Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que puede determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido. Ejemplos de magnitudes son la longitud, la masa, la potencia, la velocidad, etc. A la magnitud de un objeto específico que estamos interesados en medir, la llamamos mesurando. Por ejemplo, si estamos interesado en medir la longitud de una barra, esa longitud específica será el mesurando.

Para establecer el valor de un mesurando tenemos que usar instrumentos de medición y un método de medición. Asimismo es necesario definir unidades de medición. Por ejemplo, si deseamos medir el largo de una mesa, el instrumento de medición será una regla. Si hemos elegido el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla a usar deberá estar calibrada en esa unidad (o submúltiplos). El método de medición consistirá en determinar cuantas veces la regla y fracciones de ella entran en la longitud buscada.

En ciencias e ingeniería, el concepto de error tiene un significado diferente del uso habitual de este término. Coloquialmente, es usual el empleo del término error como análogo o equivalente a equivocación. En ciencia e ingeniería, el error, como veremos en lo que sigue, está más bien asociado al concepto de incertidumbre en la determinación del resultado de una medición. Más precisamente, lo que procuramos en toda medición es conocer las cotas (o limites probabilísticos) de estas incertidumbres. Gráficamente, buscamos establecer un intervalo como el de la Figura 1.1, donde con cierta probabilidad, podamos decir que se encuentra el mejor valor de la magnitud x. Este mejor valor, es el más representativo de nuestra medición y al semiancho ?x lo denominamos la incertidumbre o error absoluto de la medición.

Figura 1.1. Intervalo asociado al resultado de una medición. Notamos que, en lugar de dar un único número, definimos un intervalo. A valor representativo del centro del intervalo ( ) lo llamamos el mejor valor del mesurado. Al semiancho del intervalo (?x) se denomina la incertidumbre o error absoluto do la medición.

En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el método de medición, el observador (u observadores) que realizan la medición. El mismo proceso de medición introduce errores o incertidumbres. Por ejemplo, cuando usamos un termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o viceversa), de modo que el resultado de la medición es un valor modificado del original debido a la inevitable interacción que debimos realizar. Es claro que esta interacción podrá o no ser significativa: Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad de calor transferida al termómetro puede no ser significativa, pero si lo será, si el volumen en cuestión es de una pequeña fracción de un mililitro.

Tanto los instrumentos que usamos para medir, como las magnitudes mismas son fuente de incertidumbres al momento de medir. Los instrumentos tienen una precisión finita, por lo que, para un dado instrumento, siempre existe una variación mínima de la magnitud que puede detectar. Esta mínima cantidad se denomina la apreciación nominal del instrumento. Por ejemplo, con una regla graduada en milímetros, no podemos detectar variaciones menores que una fracción del milímetro.

A su vez, las magnitudes a medir no están definidas con infinita precisión. Imaginemos que queremos medir el largo de una mesa. Es posible que al usar instrumentos cada vez más precisos empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aun más allá, finalmente detectemos la naturaleza atómica o molecular del material que la constituye. Es claro que en ese punto la longitud dejará de estar bien definida. En la práctica, es posible que mucho antes de estos casos límites, la falta de paralelismo en sus bordes haga que el concepto de la “longitud de la mesa” comience a hacerse cada vez menos definido, y a esta limitación intrínseca la denominamos incertidumbre intrínseca o falta de definición de la magnitud en cuestión.

Otro ejemplo sería el caso en que se cuenta la cantidad de partículas alfa emitidas por una fluente radioactiva en 5 segundos. Sucesivas mediciones arrojarán diversos resultados (similares, pero en general distintos). En este caso, de nuevo, estamos frente a una manifestación de una incertidumbre intrínseca asociada a esta magnitud “número de partículas emitidas en 5s”, más que al error de los instrumentos o del observador.

índice

2. Algunos conceptos básicos

Otra fuente de error que se origina en los instrumentos además de la precisión es la exactitud de los mismos. Como vimos, la precisión de un instrumento o un método de medición esta asociada a la sensibilidad o menor variación de la magnitud que se pueda detectar con dicho instrumento o método. Así, decimos que un tornillo micrométrico (con una apreciación nominal de 10µm) es más preciso que una regla graduada en milímetros; o que un cronómetro es más preciso que un reloj común, etc.

La exactitud de un instrumento o método de medición está asociada a la calidad de la calibración. Imaginemos que el cronómetro que usamos es capaz de determinar la centésima de segundo pero adelanta dos minutos por hora, mientras que un reloj de pulsera común no lo hace. En este caso decimos que el cronómetro es todavía más preciso que el reloj común, pero es menos exacto. La exactitud es una medida de la calidad de la calibración de nuestro instrumento respecto de patrones de medida aceptados internacionalmente.

En general los instrumentos vienen calibrados, pero dentro de ciertos limites. Es deseable que la calibración de un instrumento sea tan buena como la apreciación del mismo. La Figura 1.2 ilustra de modo esquemático estos dos conceptos.

Figura 1.2. Esta figura ilustra de modo esquemático los conceptos de precisión y exactitud. Los centros de los círculos indican la posición del “verdadero valor” del mesurando y las cruces los valores de varias determinaciones del valor. La dispersión de los puntos da una idea de la precisión, mientras que su centro efectivo está asociado a la exactitud. a) Es una determinación precisa pero inexacta, mientras que d)

...

Descargar como (para miembros actualizados)  txt (39.4 Kb)  
Leer 26 páginas más »
Disponible sólo en Clubensayos.com