Cuestionario 1 “Teoría de errores”
AreshdzTrabajo27 de Agosto de 2016
2.236 Palabras (9 Páginas)1.687 Visitas
Instituto Politécnico Nacional[pic 1][pic 2]
Escuela Superior de Ingeniería Mecánica y Eléctrica
Ing. En Comunicaciones y Electrónica
Cuestionario 1
“Teoría de errores”
Física Clásica
Prof: Ma. Susana Martínez Morales
Integrantes:
- Álvarez Alvarado Adelaida
- Blanquel Gutiérrez Luis Alberto
- García Chávez Erick Fabián
- García Romero Edgar Ismael
- Gutiérrez Aldana Andrea Michelle
- Hernández Rodríguez Ares Atzarel
Grupo: 1CM5
- ¿Qué es medir?
Proceso que consiste en averiguar cuantas veces esta contenida una cantidad llamada patrón en otra cantidad dada; de la misma especie. Es decir, consiste en definir todo aquello para sacar las dimensiones de una variable, relacionándola o comparándola con una medida ya establecida; al resultado se le llama medida. En toda medición existe una incertidumbre.
- ¿Qué entiende por medición directa?
La medida será directa, cuando tenemos un instrumento de medida que la obtiene en ese momento; por ejemplo si se quiere medir la distancia que existe entre dos objetos y se tiene el instrumento deseado se puede medir en ese instante y será una medición directa.
- ¿Qué entiende por medición indirecta?
Al contrario de las medidas directas, estas no pueden ser medidas con instrumentos de forma directa; resultan de saber la medición ya establecida de una variable por medio de la medición directa y así se puede calcular otra distinta de esta. En resumen se deben aplicar cálculos matemáticos a partir de otras mediciones directas para determinar dicha medición. Por ejemplo cuando utilizamos una fórmula para calcular el valor de la variable deseada será una medición indirecta.
- Defina el valor real o verdadero
Es el valor mas exacto (mejor aproximado) sobre una medición. Es conocido como el valor atribuido a una magnitud particular y aceptado por convención. Algunas veces es llamado: valor asignado, mejor valor estimado, valor convenido o valor de referencia.
- Defina el valor más probable
Llamado "Valor medio" es el valor calculado que se obtiene mediante una serie de repeticiones de una medición, determinado por su valor medio o media aritmética.
Vm=Vc= V1 +V2+V3+….+Vn/ n
Donde:
Vm=Vc sera el valor medio o valor mas probable
Vn= Valor de cada medición
N= Número de veces realizada la medición
- ¿Qué entiende por errores sistemáticos?
Son aquellos errores cometidos por el proceso o sistema de medición debido a algún defecto del instrumento de medición o al método de trabajo. Normalmente actúan en el mismo sentido, no son aleatorios, de tal forma que en ocasiones se podrán calcular y compensar matemáticamente tras la medida.
- De los errores sistemáticos ¿Cuáles son las causas principales, como estimarlos y como reducirlos o tratarlos?
Un error sistemático puede estar originado en un defecto durante el calibrado del instrumento, en una particularidad del operador o del proceso de medición, etc. Se les puede calcular con suficiente precisión y así mismo anularlos o reducirlos. El paralaje, la incertidumbre y la calibración son de los principales factores que pueden generar este tipo de errores. Se pueden reducir comparando la escala del instrumento con los valores proporcionados por patrones conocidos, o midiendo la misma magnitud con otros instrumentos mas precisos.
- ¿Qué entiende por errores accidentales?
También conocido como error aleatorio. Este tipo de error es inevitable, ya que, como su nombre lo indica, se produce mediante sucesos los cuales son prácticamente imposibles de controlar mientras ocurre el proceso de medición. Son muy difíciles de corregir. Llegan a ser numerosos y pequeños, pero al acumularse provocan que las medidas fluctuan alrededor de una media.
- De los errores accidentales ¿Cuáles son las causas, como estimarlos y como reducirlos o tratarlos?
Entre sus causas se encuentran las pequeñas variaciones que aparecen tras observaciones sucesivas realizadas por el observador, bajo las mismas condiciones. tras observaciones sucesivas. Este es el único que se puede reducir totalmente aplicando criterios estadísticos, después de repetir la medición un número suficiente de veces.
- ¿Qué entiende por incertidumbre?
Al tratar de medir, se le denomina incertidumbre a la estimación del posible error de medida. Al mismo tiempo, representa la probabilidad de que el verdadero valor se encuentre ubicado dentro de un rango de valores indicados.
- ¿Qué entiende por exactitud?
Se define así a la proximidad entre el valor medido y el valor verdadero de una magnitud a medir, de modo que un resultado será más exacto mientras menor sea el intervalo de incertidumbre en la medida.
Considerando mediciones individuales, la más próxima al valor verdadero será la más exacta. Sin embargo, tras una serie de mediciones repetidas, será la distancia desde el valor medio de la distribución de valores observados, habitualmente el resultado, hasta el valor “verdadero”; es decir el sesgo (valor estimado del error sistemático), la que caracterizará la exactitud de la medición.
Así, en mediciones repetidas, la exactitud depende solamente de la posición del valor medio (resultado) de la distribución de valores, no jugando papel alguno en ella la precisión.
- ¿Qué entiende por precisión?
El Vocabulario Internacional de Metrología (VIM) define la precisión como la proximidad entre las indicaciones o los valores medidos obtenidos en mediciones repetidas de un mismo objeto, bajo condiciones especificadas.
La precisión se refiere a cuan constante son las mediciones y no implica exactitud, un instrumento muy preciso puede ser inexacto; pues una medida exacta es aquella que presenta poco error respecto al valor real.
La precisión depende pues únicamente de la distribución de los resultados y no está relacionada con el valor convencionalmente “verdadero” de la medición.
La precisión de un instrumento se determina de la siguiente forma:
P=R/N
Donde:
P = Precisión del instrumento
R = Modulo de la escala principal
N = Numero de divisiones de la escala secundaria
- En un instrumento de medición:
- ¿Cuál es su rango máximo?
Valor que representa el limite superior de la capacidad de medición y transmisión de un instrumento. Es decir, el valor que proporciona una medida fiable.(Alcance)
- ¿Cuál es su rango mínimo?
Valor que representa el limite inferior o la tolerancia mínima de medida que permite indicar, registrar o controlar un instrumento de medición para hacer una medida confiable. el instrumento en otras palabras es la mínima división de escala de un instrumento indicador
- Defina las cifras significativas
Es el conjunto de dígitos que aportan información útil, no ambigua, al momento de realizar una medición, estas cifras dependen de los dígitos que usa la escala del instrumento que se utiliza para realizar dicha medición.
- ¿Cómo es la precisión en función de las cifras significativas?
En todo instrumento de medición siempre existen diversos tipos de errores (del instrumento y/o del usuario) que se deben tomar en cuenta para determinar la precisión de las cifras significativas y no solo al momento de medir se cometen errores al utilizar el instrumento, también al momento de realizar una operación aritmética para determinar un valor . Las cifras significativas otorgan la mayor precisión posible comparando la medición con instrumento y la operación aritmética tomando en cuenta la escala del instrumento y solo utilizando las cifras que esta escala cuenta.
...