Teoría De Errores
tumejormaestro5 de Junio de 2015
6.425 Palabras (26 Páginas)208 Visitas
1 1– Introducción
Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que
puede determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido.
Ejemplos de magnitudes son la longitud, la masa, la potencia, la velocidad, etc. A la magnitud
de un objeto específico que estamos interesado en medir, la llamamos mesurando. Por
ejemplo, si estamos interesado en medir la longitud de una barra, esa longitud específica será
el mesurando
Para establecer el valor de un mesurando tenemos que usar instrumentos de medición
y un método de medición. Asimismo es necesario definir unidades de medición. Por
ejemplo, si deseamos medir el largo de una mesa, el instrumento de medición será una regla.
Si hemos elegido el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla
a usar deberá estar calibrada en esa unidad (o submúltiplos). El método de medición consistirá
en determinar cuantas veces la regla y fracciones de ella entran en la longitud buscada.
En ciencias e ingeniería, el concepto de error tiene un significado diferente del uso habitual
de este término. Coloquialmente, es usual el empleo del término error como análogo o equivalente
a equivocación. En ciencia e ingeniería, el error, como veremos en lo que sigue, está más
bien asociado al concepto de incerteza en la determinación del resultado de una medición.
Más precisamente, lo que procuramos en toda medición es conocer las cotas (o límites probabilísticos)
de estas incertezas. Gráficamente, buscamos establecer un intervalo
x x x x x como el de la Figura 1.1, donde con cierta probabilidad, podamos decir
que se encuentra el mejor valor de la magnitud x. Este mejor valor x es el más representativo
de nuestra medición y al semiancho x lo denominamo la incerteza o error absoluto de la
medición.
Teoría de errores -
Incertezas de medición
En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el
método de medición, el observador (u observadores) que realizan la medición. Asimismo, el
mismo proceso de medición introduce errores o incertezas. Por ejemplo, cuando usamos un
termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o
viceversa), de modo que el resultado de la medición es un valor modificado del original debido
a la inevitable interacción que debimos realizar. Es claro que esta interacción podrá o no
ser significativa: Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad
de calor transferida al termómetro puede no ser significativa, pero si lo será si el volumen en
cuestión es de una pequeña fracción del mililitro.
Tanto los instrumentos que usamos para medir como las magnitudes mismas son fuente de
incertezas al momento de medir. Los instrumentos tienen una precisión finita, por lo que, para
un dado instrumento, siempre existe una variación mínima de la magnitud que puede detectar.
Esta mínima cantidad se denomina la apreciación nominal del instrumento. Por ejemplo, con
una regla graduada en milímetros, no podemos detectar variaciones menores que una fracción
del milímetro.
A su vez, las magnitudes a medir no están definidas con infinita precisión. Imaginemos que
queremos medir el largo de una mesa. Es posible que al usar instrumentos cada vez más precisos
empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aun más allá,
finalmente detectemos la naturaleza atómica o molecular del material que la constituye. Es
claro que en ese punto la longitud dejará de estar bien definida. En la práctica, es posible que
mucho antes de estos casos límites, la falta de paralelismo en sus bordes haga que el concepto
de la “longitud de la mesa” comience a hacerse cada vez menos definido, y a esta limitación
intrínseca la denominamos denomina incerteza intrínseca o falta de definición de la magnitud
en cuestión.
Otro ejemplo sería el caso en que se cuenta la cantidad de partículas alfa emitidas por una
fuente radioactiva en 5 segundos. Sucesivas mediciones arrojarán diversos resultados (similares,
pero en general distintos). En este caso, de nuevo, estamos frente a una manifestación de
una incerteza intrínseca asociada a esta magnitud “número de partículas emitidas en 5 s”, más
que al error de los instrumentos o del observador.
x
x x x x x
Física re-Creativa – S. Gil y E. Rodríguez 3
1.2 – Algunos conceptos básicos
Otra fuente de error que se origina en los instrumentos además de la precisión es la
exactitud de los mismos. Como vimos, la precisión de un instrumento o un método de medición
está asociada a la sensibilidad o menor variación de la magnitud que se pueda detectar
con dicho instrumento o método. Así, decimos que un tornillo micrométrico (con una apreciación
nominal de 10 m) es más preciso que una regla graduada en milímetros; o que un cronómetro
es más preciso que un reloj común, etc.
La exactitud de un instrumento o método de medición está asociada a la calidad de la
calibración del mismo. Imaginemos que el cronómetro que usamos es capaz de determinar la
centésima de segundo pero adelanta dos minutos por hora, mientras que un reloj de pulsera
común no lo hace. En este caso decimos que el cronómetro es todavía más preciso que el
reloj común, pero menos exacto. La exactitud es una medida de la calidad de la calibración
de nuestro instrumento respecto de patrones de medida aceptados internacionalmente. En
general los instrumentos vienen calibrados, pero dentro de ciertos limites. Es deseable que la
calibración de un instrumento sea tan buena como la apreciación del mismo. La Figura 1.2
ilustra de modo esquemático estos dos conceptos.
Figura 1.2. Esta figura ilustra de modo esquemático los conceptos de precisión y
exactitud. Los centros de los círculos indican la posición del “verdadero valor” del mesurando
y las cruces los valores de varias determinaciones del centro. La dispersión de
los puntos da una idea de la precisión, mientras que su centro efectivo (centroide) está
asociado a la exactitud. a) es una determinación precisa pero inexacta, mientras d) es
más exacta pero imprecisa; b) es una determinación más exacta y más precisa; c) es
menos precisa que a).
Exactitud
c ) d
a ) b
Precisión
Física re-Creativa – S. Gil y E. Rodríguez 4
Decimos que conocemos el valor de una magnitud dada, en la medida en que conocemos
sus errores. En ciencia consideramos que la medición de una magnitud con un cierto
error no significa que se haya cometido una equivocación o que se haya realizado una mala
medición. Con la indicación del error de medición expresamos, en forma cuantitativa y lo más
precisamente posible, las limitaciones que nuestro proceso de medición introduce en la determinación
de la magnitud medida.
¡Es imprescindible en ciencia e ingeniería especificar los errores
de medición!
La nomenclatura moderna usada en Metrología para denotar los conceptos discutidos
en este capitulo puede encontrarse consultando las publicaciones sobre el tema
elaboradas por la International Organization for Standardization (ISO 3534-1993)[7]
que puede obtenerse a través de la pagina de Internet del National Institute of Standard
and Technology ( NIST ) de los EE. UU. (http://www.nist.gov/). La institución equivalente
en la República Argentina es el Instituto de Tecnología Industrial (INTI:
http://www.inti.gov.ar/cefis/).
1.3 – Clasificación de los errores
Existen varias formas de clasificar y expresar los errores de medición. Según su origen
los errores pueden clasificarse del siguiente modo:
I. Errores introducidos por el instrumento:
Error de apreciación, σap: si el instrumento está correctamente calibrado la incertidumbre
que tendremos al realizar una medición estará asociada a la mínima división
de su escala o a la mínima división que podemos resolver con algún método de
medición. Nótese que no decimos que el error de apreciación es la mínima división
del instrumento, sino la mínima división que es discernible por el observador. La mínima
cantidad que puede medirse con un dado instrumento la denominamos apreciación
nominal. El error de apreciación puede ser mayor o menor que la apreciación
nominal, dependiendo de la habilidad (o falta de ella) del observador. Así, es posible
que un observador entrenado pueda apreciar con una regla común fracciones del milímetro
mientras que otro observador, con la misma regla pero con dificultades de visión
sólo pueda apreciar 2 mm.
Error de exactitud, σexac: representa el error absoluto con el que el instrumento
en cuestión ha sido calibrado.
Física re-Creativa – S. Gil y E. Rodríguez 5
II. Error de interacción; , σint: esta incerteza proviene de la interacción del método
de medición con el objeto a medir.
...