ClubEnsayos.com - Ensayos de Calidad, Tareas y Monografias
Buscar

Teoría De Errores

tumejormaestro5 de Junio de 2015

6.425 Palabras (26 Páginas)208 Visitas

Página 1 de 26

1 1– Introducción

Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que

puede determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido.

Ejemplos de magnitudes son la longitud, la masa, la potencia, la velocidad, etc. A la magnitud

de un objeto específico que estamos interesado en medir, la llamamos mesurando. Por

ejemplo, si estamos interesado en medir la longitud de una barra, esa longitud específica será

el mesurando

Para establecer el valor de un mesurando tenemos que usar instrumentos de medición

y un método de medición. Asimismo es necesario definir unidades de medición. Por

ejemplo, si deseamos medir el largo de una mesa, el instrumento de medición será una regla.

Si hemos elegido el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla

a usar deberá estar calibrada en esa unidad (o submúltiplos). El método de medición consistirá

en determinar cuantas veces la regla y fracciones de ella entran en la longitud buscada.

En ciencias e ingeniería, el concepto de error tiene un significado diferente del uso habitual

de este término. Coloquialmente, es usual el empleo del término error como análogo o equivalente

a equivocación. En ciencia e ingeniería, el error, como veremos en lo que sigue, está más

bien asociado al concepto de incerteza en la determinación del resultado de una medición.

Más precisamente, lo que procuramos en toda medición es conocer las cotas (o límites probabilísticos)

de estas incertezas. Gráficamente, buscamos establecer un intervalo

x x x x x como el de la Figura 1.1, donde con cierta probabilidad, podamos decir

que se encuentra el mejor valor de la magnitud x. Este mejor valor x es el más representativo

de nuestra medición y al semiancho x lo denominamo la incerteza o error absoluto de la

medición.

Teoría de errores -

Incertezas de medición

En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el

método de medición, el observador (u observadores) que realizan la medición. Asimismo, el

mismo proceso de medición introduce errores o incertezas. Por ejemplo, cuando usamos un

termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o

viceversa), de modo que el resultado de la medición es un valor modificado del original debido

a la inevitable interacción que debimos realizar. Es claro que esta interacción podrá o no

ser significativa: Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad

de calor transferida al termómetro puede no ser significativa, pero si lo será si el volumen en

cuestión es de una pequeña fracción del mililitro.

Tanto los instrumentos que usamos para medir como las magnitudes mismas son fuente de

incertezas al momento de medir. Los instrumentos tienen una precisión finita, por lo que, para

un dado instrumento, siempre existe una variación mínima de la magnitud que puede detectar.

Esta mínima cantidad se denomina la apreciación nominal del instrumento. Por ejemplo, con

una regla graduada en milímetros, no podemos detectar variaciones menores que una fracción

del milímetro.

A su vez, las magnitudes a medir no están definidas con infinita precisión. Imaginemos que

queremos medir el largo de una mesa. Es posible que al usar instrumentos cada vez más precisos

empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aun más allá,

finalmente detectemos la naturaleza atómica o molecular del material que la constituye. Es

claro que en ese punto la longitud dejará de estar bien definida. En la práctica, es posible que

mucho antes de estos casos límites, la falta de paralelismo en sus bordes haga que el concepto

de la “longitud de la mesa” comience a hacerse cada vez menos definido, y a esta limitación

intrínseca la denominamos denomina incerteza intrínseca o falta de definición de la magnitud

en cuestión.

Otro ejemplo sería el caso en que se cuenta la cantidad de partículas alfa emitidas por una

fuente radioactiva en 5 segundos. Sucesivas mediciones arrojarán diversos resultados (similares,

pero en general distintos). En este caso, de nuevo, estamos frente a una manifestación de

una incerteza intrínseca asociada a esta magnitud “número de partículas emitidas en 5 s”, más

que al error de los instrumentos o del observador.

x

x x x x x

Física re-Creativa – S. Gil y E. Rodríguez 3

1.2 – Algunos conceptos básicos

Otra fuente de error que se origina en los instrumentos además de la precisión es la

exactitud de los mismos. Como vimos, la precisión de un instrumento o un método de medición

está asociada a la sensibilidad o menor variación de la magnitud que se pueda detectar

con dicho instrumento o método. Así, decimos que un tornillo micrométrico (con una apreciación

nominal de 10 m) es más preciso que una regla graduada en milímetros; o que un cronómetro

es más preciso que un reloj común, etc.

La exactitud de un instrumento o método de medición está asociada a la calidad de la

calibración del mismo. Imaginemos que el cronómetro que usamos es capaz de determinar la

centésima de segundo pero adelanta dos minutos por hora, mientras que un reloj de pulsera

común no lo hace. En este caso decimos que el cronómetro es todavía más preciso que el

reloj común, pero menos exacto. La exactitud es una medida de la calidad de la calibración

de nuestro instrumento respecto de patrones de medida aceptados internacionalmente. En

general los instrumentos vienen calibrados, pero dentro de ciertos limites. Es deseable que la

calibración de un instrumento sea tan buena como la apreciación del mismo. La Figura 1.2

ilustra de modo esquemático estos dos conceptos.

Figura 1.2. Esta figura ilustra de modo esquemático los conceptos de precisión y

exactitud. Los centros de los círculos indican la posición del “verdadero valor” del mesurando

y las cruces los valores de varias determinaciones del centro. La dispersión de

los puntos da una idea de la precisión, mientras que su centro efectivo (centroide) está

asociado a la exactitud. a) es una determinación precisa pero inexacta, mientras d) es

más exacta pero imprecisa; b) es una determinación más exacta y más precisa; c) es

menos precisa que a).

Exactitud

c ) d

a ) b

Precisión

Física re-Creativa – S. Gil y E. Rodríguez 4

Decimos que conocemos el valor de una magnitud dada, en la medida en que conocemos

sus errores. En ciencia consideramos que la medición de una magnitud con un cierto

error no significa que se haya cometido una equivocación o que se haya realizado una mala

medición. Con la indicación del error de medición expresamos, en forma cuantitativa y lo más

precisamente posible, las limitaciones que nuestro proceso de medición introduce en la determinación

de la magnitud medida.

¡Es imprescindible en ciencia e ingeniería especificar los errores

de medición!

La nomenclatura moderna usada en Metrología para denotar los conceptos discutidos

en este capitulo puede encontrarse consultando las publicaciones sobre el tema

elaboradas por la International Organization for Standardization (ISO 3534-1993)[7]

que puede obtenerse a través de la pagina de Internet del National Institute of Standard

and Technology ( NIST ) de los EE. UU. (http://www.nist.gov/). La institución equivalente

en la República Argentina es el Instituto de Tecnología Industrial (INTI:

http://www.inti.gov.ar/cefis/).

1.3 – Clasificación de los errores

Existen varias formas de clasificar y expresar los errores de medición. Según su origen

los errores pueden clasificarse del siguiente modo:

I. Errores introducidos por el instrumento:

Error de apreciación, σap: si el instrumento está correctamente calibrado la incertidumbre

que tendremos al realizar una medición estará asociada a la mínima división

de su escala o a la mínima división que podemos resolver con algún método de

medición. Nótese que no decimos que el error de apreciación es la mínima división

del instrumento, sino la mínima división que es discernible por el observador. La mínima

cantidad que puede medirse con un dado instrumento la denominamos apreciación

nominal. El error de apreciación puede ser mayor o menor que la apreciación

nominal, dependiendo de la habilidad (o falta de ella) del observador. Así, es posible

que un observador entrenado pueda apreciar con una regla común fracciones del milímetro

mientras que otro observador, con la misma regla pero con dificultades de visión

sólo pueda apreciar 2 mm.

Error de exactitud, σexac: representa el error absoluto con el que el instrumento

en cuestión ha sido calibrado.

Física re-Creativa – S. Gil y E. Rodríguez 5

II. Error de interacción; , σint: esta incerteza proviene de la interacción del método

de medición con el objeto a medir.

...

Descargar como (para miembros actualizados) txt (43 Kb)
Leer 25 páginas más »
Disponible sólo en Clubensayos.com