La conversión de unidades es la transformación de una cantidad
elpapaupa9 de Abril de 2013
2.473 Palabras (10 Páginas)558 Visitas
La conversión de unidades es la transformación de una cantidad, expresada en un cierta unidad de medida, en otra equivalente, que puede ser del mismo sistema de unidades o no.
Este proceso suele realizarse con el uso de los factores de conversión y las tablas de conversión.
Frecuentemente basta multiplicar por una fracción (factor de conversión) y el resultado es otra medida equivalente, en la que han cambiado las unidades. Cuando el cambio de unidades implica la transformación de varias unidades se pueden utilizar varios factores de conversión uno tras otro, de forma que el resultado final será la medida equivalente en las unidades que buscamos, por ejemplo si queremos pasar 8 metros a yardas, lo único que tenemos que hacer es multiplicar 8 x (0.914)=7.312 yardas.
Importancia a importacia es que se pueden estandarizar las medidas,, Para saber las equivalencia en las diferentes formas de escribir un resultado.
OBJETIVO:
Aprender a utilizar la conversión para resolver problemas y que sus unidades coincidan
Desde el punto de vista operacional de la Física es muy importante saber manejar la conversión de unidades, ya que en los problemas en que se presenten las magnitudes físicas, éstas deben guardar homogeneidad para poder simplificarlas cuando sea necesario, es decir, deben ser de la misma especie.
PASOS PARA REALIZAR LA CONVERSIÓN.
1.- Escriba la cantidad que desea convertir.
2.- Defina cada una de las unidades incluidas en la cantidad que va a convertir, en términos de la unidad o las unidades buscadas.
3.- Escriba dos factores de conversión para cada definición, uno de ellos recíproco del otro.
4.- Multiplique la cantidad que desea convertir por aquellos factores que cancelen todas las unidades, excepto las buscadas.
Ejemplo 1:
Convierta 5 m^2 a cm^2
Equivalencia a usar:
1m^2 = 10,000cm^2
Se escribe la cantidad que se va a convertir y se escogen los factores de conversión que cancelan las unidades no deseadas.
5m^2 10,000cm^2 = 50,000 cm^2
1m^2
Resultado expresado en notación científica: 5 x 10^4 cm^2
6.1. Conclusiones
El objetivo de este proyecto ha sido proporcionar una herramienta útil que facilitase
el conocimiento y manejo de las unidades de medida.
En multitud de ocasiones los propios ingenieros utilizan mal las unidades de
medida. Al igual que cuando se escribe se deben seguir las reglas ortográficas, a la hora
de expresar una cantidad numérica y sus unidades, se debe hacer con rigurosidad
siguiendo las normas existentes. Uno de los objetivos de este proyecto es dar a conocer
estas reglas ortográficas para la correcta expresión de las unidades de medida.
ERRORES
OBJETIVO: Analizar la importancia de los errores cometidos experimentalmente y poder calcularlos
Medidas resultados y errores
Los resultados de las medidas nunca se corresponden con los valores reales de las magnitudes a medir, sino que, en mayor o menor extensión, son defectuosos, es decir, están afectados de error. Las causas que motivan tales desviaciones pueden ser debidas al observador, al aparato o incluso a las propias características del proceso de medida. Un ejemplo de error debido al observador es el llamado error de paralaje que se presenta cuando la medida se efectúa mediante la lectura sobre una escala graduada. La situación del observador respecto de dicha escala influye en la posición de la aguja indicadora según sea vista por el observador. Por ello para evitar este tipo de error es preciso situarse en línea con la aguja, pero perpendicularmente al plano de la escala. Otros errores debidos al observador pueden introducirse por descuido de éste, por defectos visuales, etc.
Son, asimismo, frecuentes los errores debidos al aparato de medida. Tal es el caso del llamado error del cero. El uso sucesivo de un aparato tan sencillo como una báscula de baño hace que al cabo de un cierto tiempo en ausencia de peso alguno la aguja no señale el cero de la escala. Para evitar este tipo de error los fabricantes incluyen un tornillo o rueda que permite corregirlo al iniciar cada medida. Variaciones en las condiciones de medida debidas a alteraciones ambientales, como pueden ser cambios de presión o de temperatura o a las propias características del proceso de medida constituyen otras posibles fuentes de error. La interacción entre el sistema físico y el aparato de medida constituye la base del proceso de medida; pero dicha interacción perturba en cierto grado las condiciones en las que se encontraba el sistema antes de la medida.
Así, cuando se desea medir la tensión eléctrica existente entre dos puntos de un circuito con un voltímetro, una parte de la corriente se desvía por el aparato de medida, con lo que el sistema a medir queda ligeramente perturbado. De igual modo, al medir una temperatura con un termómetro se está provocando una cesión o absorción de calor entre termómetro y sistema hasta que se alcanza el equilibrio térmico entre ambos. En un cierto grado, el valor de la temperatura a medir se ha visto modificado al hacer intervenir el aparato de medida. En el ámbito de la física microscópica tal perturbación, cuando existe, es controlable y puede reducirse hasta considerarse despreciable mediante un diseño adecuado del aparato de medida.
Error absoluto y error relativo
Como consecuencia de la existencia de diferentes fuentes de error, el científico se plantea por sistema hasta qué punto o en qué grado los resultados obtenidos son fiables, esto es, dignos de confianza. Por ello, al resultado de una medida se le asocia un valor complementario que indica la calidad de la medida o su grado de precisión. Los errores o imprecisiones en los resultados se expresan matemáticamente bajo dos formas que se denominan error absoluto y error relativo. Se define el error absoluto % E, como la diferencia entre el resultado de la medida M y el verdadero valor m 0 de la magnitud a medir
% E = M – m0
El error relativo E r es el cociente entre el error absoluto % E y el verdadero valor. Cuando se expresa en tanto por ciento su expresión es
E r (%) = % E.100/m0
En sentido estricto tales definiciones son únicamente aplicables cuando se refieren no a medidas físicas propiamente, sino a operaciones matemáticas, ya que el valor exacto de una magnitud no es accesible. Por ello, con frecuencia se prefiere hablar de incertidumbres en lugar de errores. En tal caso se toma como m el valor que más se aproxima al verdadero, es decir, valor medio obtenido al repetir varias veces la misma medida.
Error de medición
Medir es determinar numéricamente una magnitud comparándola con otra de su misma especie y de valor constante. A estas magnitudes se las conoce como unidades y su materialización son los patrones de medida. El valor verdadero de una cierta magnitud que se mide es siempre imposible de determinar por las limitaciones tanto del operador como de los instrumentos de medida. Toda medida va afectada de un error, también imposible de determinar, pero cuyo valor podemos acotar dentro de unos margenes adecuados.
El error de medición se define como la diferencia entre el valor medido y el valor verdadero. Afectan a cualquier instrumento de medición y pueden deberse a distintas causas. Las que se pueden de alguna manera prever, calcular, eliminar mediante calibraciones y compensaciones, se denominan determinísticos o sistemáticos y se relacionan con la exactitud de las mediciones. Los que no se pueden prever, pues dependen de causas desconocidas, o estocásticas se denominan aleatorios y están relacionados con la precisión del instrumento.
En este artículo vamos a comentar los principales errores de medición y sus fuentes.
Tipos de errores de medición.-Atendiendo a su naturaleza los errores cometidos en una medición admiten una clasificación en dos grandes vertientes: errores aleatorios y errores sistemáticos.
Error aleatorio. No se conocen
...