Teoría De Errores
Enviado por tumejormaestro • 5 de Junio de 2015 • 6.425 Palabras (26 Páginas) • 169 Visitas
1 1– Introducción
Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que
puede determinarse cuantitativamente, es decir, es un atributo susceptible de ser medido.
Ejemplos de magnitudes son la longitud, la masa, la potencia, la velocidad, etc. A la magnitud
de un objeto específico que estamos interesado en medir, la llamamos mesurando. Por
ejemplo, si estamos interesado en medir la longitud de una barra, esa longitud específica será
el mesurando
Para establecer el valor de un mesurando tenemos que usar instrumentos de medición
y un método de medición. Asimismo es necesario definir unidades de medición. Por
ejemplo, si deseamos medir el largo de una mesa, el instrumento de medición será una regla.
Si hemos elegido el Sistema Internacional de Unidades (SI), la unidad será el metro y la regla
a usar deberá estar calibrada en esa unidad (o submúltiplos). El método de medición consistirá
en determinar cuantas veces la regla y fracciones de ella entran en la longitud buscada.
En ciencias e ingeniería, el concepto de error tiene un significado diferente del uso habitual
de este término. Coloquialmente, es usual el empleo del término error como análogo o equivalente
a equivocación. En ciencia e ingeniería, el error, como veremos en lo que sigue, está más
bien asociado al concepto de incerteza en la determinación del resultado de una medición.
Más precisamente, lo que procuramos en toda medición es conocer las cotas (o límites probabilísticos)
de estas incertezas. Gráficamente, buscamos establecer un intervalo
x x x x x como el de la Figura 1.1, donde con cierta probabilidad, podamos decir
que se encuentra el mejor valor de la magnitud x. Este mejor valor x es el más representativo
de nuestra medición y al semiancho x lo denominamo la incerteza o error absoluto de la
medición.
Teoría de errores -
Incertezas de medición
En todo proceso de medición existen limitaciones dadas por los instrumentos usados, el
método de medición, el observador (u observadores) que realizan la medición. Asimismo, el
mismo proceso de medición introduce errores o incertezas. Por ejemplo, cuando usamos un
termómetro para medir una temperatura, parte del calor del objeto fluye al termómetro (o
viceversa), de modo que el resultado de la medición es un valor modificado del original debido
a la inevitable interacción que debimos realizar. Es claro que esta interacción podrá o no
ser significativa: Si estamos midiendo la temperatura de un metro cúbico de agua, la cantidad
de calor transferida al termómetro puede no ser significativa, pero si lo será si el volumen en
cuestión es de una pequeña fracción del mililitro.
Tanto los instrumentos que usamos para medir como las magnitudes mismas son fuente de
incertezas al momento de medir. Los instrumentos tienen una precisión finita, por lo que, para
un dado instrumento, siempre existe una variación mínima de la magnitud que puede detectar.
Esta mínima cantidad se denomina la apreciación nominal del instrumento. Por ejemplo, con
una regla graduada en milímetros, no podemos detectar variaciones menores que una fracción
del milímetro.
A su vez, las magnitudes a medir no están definidas con infinita precisión. Imaginemos que
queremos medir el largo de una mesa. Es posible que al usar instrumentos cada vez más precisos
empecemos a notar las irregularidades típicas del corte de los bordes o, al ir aun más allá,
finalmente detectemos la naturaleza atómica o molecular del material que la constituye. Es
claro que en ese punto la longitud dejará de estar bien definida. En la práctica, es posible que
mucho antes de estos casos límites, la falta de paralelismo en sus bordes haga que el concepto
de la “longitud de la mesa” comience a hacerse cada vez menos definido, y a esta limitación
intrínseca la denominamos denomina incerteza intrínseca o falta de definición de la magnitud
en cuestión.
Otro ejemplo sería el caso en que se cuenta la cantidad de partículas alfa emitidas por una
fuente radioactiva en 5 segundos. Sucesivas mediciones arrojarán diversos resultados (similares,
pero en general distintos). En este caso, de nuevo, estamos frente a una manifestación de
una incerteza intrínseca asociada a esta magnitud “número de partículas emitidas en 5 s”, más
que al error de los instrumentos o del observador.
x
x x x x x
Física re-Creativa – S. Gil y E. Rodríguez 3
1.2 – Algunos conceptos básicos
Otra fuente de error que se origina en los instrumentos además de la precisión es la
exactitud de los mismos. Como vimos, la precisión de un instrumento o un método de medición
está
...