Instrumentación Y Control
dis3lida9 de Julio de 2013
2.899 Palabras (12 Páginas)530 Visitas
Instrumentación Industrial.
Es el conocimiento de la correcta aplicación de los equipos encaminados para apoyar al usuario en la medición, regulación, observación, transformación, ofrecer seguridad de una variable dada en un proceso productivo.
Sistema de instrumentación.
Es una estructura compleja que agrupa un conjunto de instrumentos, un dispositivo o sistema en el que se mide, unas conexiones entre estos elementos y por último, y no menos importante, unos programas que se encargan de automatizar el proceso y de garantizar la repetibilidad de las medidas.
El elemento clave fundamental de un sistema de instrumentación, es el elemento sensor. La función del sensor es percibir y convertir la entrada (variable física) percibida por el sensor, en una variable de la señal de salida.
Definiciones en control.
Los instrumentos de control empleados en las industrias de proceso tales como química, petroquímica, alimenticia, metalúrgica, energética, textil, papel tienen su propia terminología; los términos empleados definen las características propias de medida y de control y las estáticas y dinámicas de los diversos instrumentos utilizados:
- Indicadores, registradores, controladores, transmisores y válvulas de control.
La terminología empleada se ha unificado con el fin de que los fabricantes, los usuarios y los organismos o entidades que intervienen directa o indirectamente en el campo de la instrumentación industrial empleen el mismo lenguaje. Las definiciones de los términos empleados se relacionan con las sugerencias hechas por la SAMA (Scientific Apparatus Makers Association) en su norma PMC 20-2-1970.
Campo de medida (range).
Espectro o conjunto de valores de la variable medida que están comprendidos dentro de los límites superior e inferior de la capacidad de medida o de transmisión del instrumento; viene expresado estableciendo los dos valores extremos.
Otro término derivado es el de dinámica de medida o rangeabilidad (rangeability), que es el cociente entre el valor de medida superior e inferior de un instrumento.
Alcance (span).
Es la diferencia algebraica entre los valores superior e inferior del campo de medida del instrumento.
Error.
Es la diferencia algebraica entre el valor leído o transmitido por el instrumento y el valor real de la variable medida. Si el proceso está en condiciones de régimen permanente existe el llamado error estático. En condiciones dinámicas el error varía considerablemente debido a que los instrumentos tienen características comunes a los sistemas físicos: absorben energía del proceso y esta transferencia requiere cierto tiempo para ser transmitida, lo cual da lugar a retardos en la lectura del aparato. Siempre que las condiciones sean dinámicas, existirá en mayor o menor grado el llamado error dinámico (diferencia entre el valor instantáneo de la variable y el indicado por el instrumento): su valor depende del tipo de fluido del proceso, de su velocidad, del elemento primario (termopar, bulbo y capilar), de los medios de protección (vaina). El error medio del instrumento es la media aritmética de los errores en cada punto de la medida determinados para todos los valores crecientes y decrecientes de la variable medida.
Cuando una medición se realiza con la participación de varios instrumentos, colocados unos a continuación de otros, el valor final de la medición estará constituido por los errores inherentes a cada uno de los instrumentos.
Si el límite del error relativo de cada instrumento es ± a, ± b, ± C, ± d… el máximo error posible en la medición será la suma de los valores anteriores, es decir:
± (a + b +c + d+...)
Ahora bien, como es improbable que todos los instrumentos tengan al mismo tiempo su error máximo en todas las circunstancias de la medida, suele tomarse como error total de una medición la raíz cuadrada de la suma algebraica de los cuadrados de los errores máximos de los instrumentos.
Incertidumbre de la medida (uncertainty).
Los errores que existen necesariamente al realizar la medida de una magnitud, hacen que se tenga una incertidumbre sobre el verdadero valor de la medida. La incertidumbre es la dispersión de los valores que pueden ser atribuidos razonablemente al verdadero valor de la magnitud medida. En el cálculo de la incertidumbre intervienen la distribución estadística de los resultados de series de mediciones, las características de los equipos (deriva,...).
Exactitud.
Esla cualidad de un instrumento de medida por la que tiende a dar lecturas próximas al verdadero valor de la magnitud medida.
Precisión (accuracy).
La precisión es la tolerancia de medida o de transmisión del instrumento (intervalo donde es admisible que se sitúe la magnitud de la medida), y define los límites de los errores cometidos cuando el instrumento se emplea en condiciones normales de servicio durante un período de tiempo determinado (normalmente 1 año). Hay varias formas para expresar la precisión:
Tanto por ciento del alcance.
Directamente, en unidades de la variable medida.
Tanto por ciento de la lectura efectuada.
Tanto por ciento del valor máximo del campo de medida.
Tanto por ciento de la longitud de la escala.
La precisión varía en cada punto del campo de medida si bien, el fabricante la especifica en todo el margen del instrumento indicando a veces su valor en algunas zonas de la escala.
Zona muerta (dead zone o dead band).
Es el campo de valores de la variable que no hace variar la indicación o la señal de salida del instrumento, es decir, que no produce su respuesta. Viene dada en tanto por ciento del alcance de la medida.
Sensibilidad (sensitivity).
Es la razón entre el incremento de la lectura y el incremento de la variable que lo ocasiona, después de haberse alcanzado el estado de reposo. Viene dada en tanto por ciento del alcance de la medida. Hay que señalar que no debe confundirse la sensibilidad con el término de zona muerta; son definiciones básicamente distintas que antes era fácil confundir cuando la definición inicial de la sensibilidad era «valor mínimo en que se ha de modificar la variable para apreciar un cambio medible en el índice o en la pluma de registro del instrumento».
Repetibilidad (repeatibility).
La repetibilidad es la capacidad de reproducción de las posiciones de la pluma o del índice o de la señal de salida del instrumento al medir repetidamente valores idénticos de la variable en las mismas condiciones de servicio y en el mismo sentido de variación, recorriendo todo el campo. Se considera en general su valor máximo (repetibilidad máxima) y se expresa en tanto por ciento del alcance; un valor representativo es el de ± 0,1 %. Para determinarla, el fabricante comprueba la diferencia entre el valor verdadero de la variable y la indicación o señal de salida del instrumento recorriendo todo el campo, y partiendo, para cada determinación, desde el valor mínimo del campo de medida.
Histéresis (hysteresis).
La histéresis es la diferencia máxima que se observa en los valores indicados por el índice o la pluma del instrumento para el mismo valor cualquiera del campo de medida, cuando la variable recorre toda la escala en los dos sentidos, ascendente y descendente. Se expresa en tanto por ciento del alcance de la medida.
Otros términos empleados en las especificaciones de los instrumentos:
Campo de medida con elevación de cero.
Es aquel campo de medida en el que el valor cero de la variable o señal medida es mayor que el valor inferior del campo.
Campo de medida con supresión de cero.
Es aquel campo de medida en el que el valor cero de la variable o señal medida es menor que el valor inferior del campo.
Elevación de cero.
Es la cantidad con que el valor cero de la variable supera el valor inferior del campo. Puede expresarse en unidades de la variable medida o en % del alcance.
Supresión de cero.
Es la cantidad con que el valor inferior del campo supera el valor cero de la variable. Puede expresarse en unidades de la variable medida o en % del alcance.
Deriva.
Es una variación en la señal de salida que se presenta en un período de tiempo determinado mientras se mantienen constantes la variable medida y todas las condiciones ambientales. Se suelen considerar la deriva de cero (variación en la señal de salida para el valor cero de la medida atribuible a cualquier causa interna) y la deriva térmica de cero (variación en la señal de salida a medida cero, debida a los efectos únicos de la temperatura). La deriva está expresada usualmente en porcentaje de la señal de salida de la escala total a la temperatura ambiente, por unidad, o por intervalo de variación de la temperatura.
Fiabilidad.
Medida de la probabilidad de que un instrumento continúe comportándose dentro de límites especificados de error a lo largo de un tiempo determinado y bajo condiciones especificadas.
Resolución.
Magnitud de los cambios en escalón de la señal de salida (expresados en tanto por ciento de la salida de toda la escala) al ir variando continuamente la medida en todo el campo. Es también el grado con que el instrumento puede discriminar valores equivalentes de una cantidad, o la menor diferencia de valor que el aparato puede distinguir.
Resolución infinita.
...