PARÁMETROS DE
INSTRUMENTOS DE MEDICIÓN EN PROCESOS INDUSTRIALES
Medición del instrumento
Los procesos industriales exigen el
control de la fabricación de los diversos productos obtenidos.
Los procesos son muy variados y
abarcan muchos tipos de productos: la fabricación de los productos derivados
del petróleo, de los productos alimenticios, la industria cerámica, las
centrales generadoras de energía, la siderurgia, los tratamientos térmicos, la
industria papelera, la industria textil, etc.
En todos estos procesos es
absolutamente necesario controlar y mantener constantes algunas magnitudes,
tales como la presión, el caudal, el nivel, la temperatura, el pH, la
conductividad, la velocidad, la humedad, el punto de rocío, etcétera. Los
instrumentos de medición y control permiten el mantenimiento y la regulación de
estas constantes en condiciones más idóneas que las que el propio operador
podría realizar.
En los inicios de la era
industrial, el operario llevaba a cabo un control manual de estas variables
utilizando sólo instrumentos simples, manómetros, termómetros, válvulas
manuales, etc., control que era suficiente por la relativa simplicidad de los
procesos. Sin embargo, la gradual complejidad con que éstos se han ido
desarrollando ha exigido su automatización progresiva por medio de los
instrumentos de medición y control. Estos instrumentos han ido liberando al operario
de su función de actuación física directa en la planta y al mismo tiempo, le
han permitido una labor única de supervisión y de vigilancia del proceso desde
centros de control situados en el propio proceso o bien en salas aisladas
separadas; asimismo, gracias a los instrumentos ha sido posible fabricar
productos complejos en condiciones estables de calidad y de características,
condiciones que al operario le serían imposibles o muy difíciles de conseguir,
realizando exclusivamente un control manual.
Los procesos industriales a
controlar pueden dividirse ampliamente en dos categorías: procesos continuos y
procesos discontinuos. En ambos tipos, deben mantenerse en general las
variables (presión, caudal, nivel, temperatura, etc.), bien en un valor deseado
fijo, bien en un valor variable con el tiempo de acuerdo con una relación
predeterminada, o bien guardando una relación determinada con otra variable.
El sistema de control que permite
este mantenimiento de las variables puede definirse como aquel que compara el
valor de la variable o condición a controlar con un valor deseado y toma una
acción de corrección de acuerdo con la desviación existente sin que el operario
intervenga en absoluto.
El sistema de control exige pues,
para que esta comparación y subsiguiente corrección sean posibles, que se
incluya una unidad de medida, una unidad de control, un elemento final de
control y el propio proceso. Este conjunto de unidades forman un bucle o lazo
que recibe el nombre de bucle de control. El bucle puede ser abierto, tal como
se ilustra en la figura 1, un ejemplo de bucle abierto es el calentamiento de
agua en un tanque mediante una resistencia eléctrica sumergida. El bucle puede
ser cerrado, un bucle cerrado representativo lo constituye la regulación de temperatura
en un intercambiador de calor, tal como se muestra en la figura 2.
Figura 1. Bucle abierto de
regulación
![http://www.sapiensman.com/control_automatico/imagenes/instrumentacion-2.jpg](file:///C:/Users/Usuario/AppData/Local/Temp/msohtmlclip1/01/clip_image002.jpg)
Figura 2. Bucle cerrado de
regulación
En ambos casos se observa que existen elementos definidos como el
elemento de medida, el transmisor, el controlador, el indicador, el registrador
y el elemento final. Estos elementos y otros adicionales se estudiarán en el
resto del capítulo, considerando las características propias del instrumento y
las clases de instrumentos que se emplean en los procesos industriales.
Error del instrumento
Es la diferencia algebraica entre el valor leído o transmitido por el
instrumento y el valor real de la variable medida. Si el proceso está en
condiciones de régimen permanente existe el llamado error estático. En
condiciones dinámicas el error varía considerablemente debido a que los
instrumentos tienen características comunes a los sistemas físicos: absorben
energía del proceso y esta transferencia requiere cierto tiempo para ser
transmitida, lo cual da lugar a retardos en la lectura del aparato. Siempre que
las condiciones sean dinámicas, existirá en mayor o menor grado el llamado
error dinámico (diferencia entre el valor instantáneo de la variable y el
indicado por el instrumento): su valor depende del tipo de fluido del
proceso, de su velocidad, del elemento primario (termopar, bulbo y capilar), de
los medios de protección (vaina, pozo, casquillo), etc. El error medio del
instrumento es la media aritmética de los errores en cada punto de la medida
determinados para todos los valores crecientes y decrecientes de la variable
medida.
Alcance (span)
Es la diferencia algebraica entre los valores superior e inferior del
campo de medida del instrumento. En el instrumento de temperatura de la figura
3, su valor es de 200° C.
Figura 3.
Definiciones de los instrumentos
Incertidumbre de la medida (uncertainty)
Son los errores que existen necesariamente al realizar la medida de una
magnitud, los cuales dan valores inciertos (casuales o sistemáticos), la
incertidumbre es la dispersión de los valores que pueden ser atribuidos
razonablemente al verdadero valor de la magnitud medida.
Repetibilidad (repeteability)
La repetibilidad es la capacidad de reproducción de las posiciones de la
pluma o del índice del instrumento al medir repetidamente valores idénticos de
la variable en las mismas condiciones de servicio y en el mismo sentido de
variación, recorriendo todo el campo. Se considera en general su valor máximo
(repetibilidad máxima) y se expresa en tanto por ciento del alcance; un valor
representativo es el de ± 0,1 %. Nótese que el término repetibilidad no incluye
la histéresis (figura 3b).
Precisión (accuracy)
La precisión es la tolerancia de medida o de transmisión del instrumento
y define los límites de los errores cometidos cuando el instrumento se emplea
en condiciones normales de servicio. Hay varias formas para expresar la
precisión:
a) Tanto por ciento
del alcance. Ejemplo: en el instrumento de la figura 3, para una lectura de 150
°C y una precisión de ± 0,5 % el valor real de la temperatura estará
comprendido entre 150 ± 0,5 X 200/100 = 150 ± 1, es decir, entre 149 y 151 °C;
b) Directamente, en
unidades de la variable medida. Ejemplo: Precisión de ± 1°C;
c) Tanto por ciento
de la lectura efectuada. Ejemplo: Precisión de ± 1 % de 150 °C, es decir ± 1,5
°C;
d) Tanto por ciento
del valor máximo del campo de medida. Ejemplo: Precisión de ±: 0,5 % de 300 °C
= ± 1,5 °C;
e) Tanto por ciento
de la longitud de la escala. Ejemplo: Si la longitud de la escala del
instrumento de la figura 4.3 es de 150 mm., la precisión de ± 0,5 %
representará ± 0,75 mm. en la escala.
La precisión varía en cada punto del campo de medida si bien, el
fabricante la especifica en todo el margen del instrumento indicando a veces su
valor en algunas zonas de la escala. Por ejemplo: un manómetro puede tener una
precisión de ± 1 % en toda la escala y de ± 0,5 % en la zona central.
Cuando se desea obtener la máxima precisión del instrumento en un punto
determinado de la escala, puede calibrarse únicamente para este punto de
trabajo, sin considerar los valores restantes del campo de medida. Por ejemplo:
un termómetro de 0~150 °C y de ± 1 % de precisión situado en un baño de
temperatura constante a 80 °C, puede ser calibrado a este valor, de modo que su
precisión en este punto de trabajo será la máxima que se pueda obtener con un
termómetro patrón. Es obvio que para los valores restantes, en particular los
correspondientes a los extremos de la escala, la precisión se apartará de ± 1
%.
Hay que señalar que los valores de precisión de un instrumento se
consideran en general establecidos para el usuario, es decir, son los
proporcionados por los fabricantes de los instrumentos. Sin embargo, estos
últimos suelen considerar también los valores de calibración en fábrica y de
inspección. Por ejemplo, un instrumento que en fábrica tiene una precisión de
calibración de ± 0,8 %, en inspección le corresponde ± 0,9 % y la dada al
usuario es ± 1 %.
Con ello se pretende tener un margen de seguridad para compensar los
efectos de las diferencias de apreciación de las personas que efectúan la
calibración, las diferentes precisiones de los instrumentos de medida
utilizados, las posibles alteraciones debidas al desplazamiento del instrumento
de un punto a otro, los efectos ambientales y de envejecimiento, etc.
Fiabilidad
Medida de la probabilidad de que un instrumento continúe comportándose
dentro de límites especificados de error a lo largo de un tiempo determinado y
bajo condiciones especificadas. De esta forma, si el rendimiento especificado
proporciona una lectura de un 2% cuando se realiza una medida, entonces el
instrumento proporcionará este nivel de exactitud siempre que se utilice la
misma medida.
Reproducibilidad o estabilidad
Capacidad de reproducción de un instrumento de las medidas repetitivas
de la lectura o señal de salida para el mismo valor de la variable medida
alcanzado en ambos sentidos, en las mismas condiciones de servicio y a lo largo
de un período de tiempo determinado. Por ejemplo, un valor representativo sería
± 0,2 % del alcance de la lectura o señal de salida a lo largo de un período de
30 días.
Sensibilidad (sensitivity)
Es la razón entre el incremento de la lectura y el incremento de la
variable que lo ocasiona, después de haberse alcanzado el estado de reposo.
Viene dada en tanto por ciento del alcance de la medida. Si la sensibilidad del
instrumento de temperatura de la figura 3 es de ± 0,05 % su valor será de 0,05
X 200/100 = ± 0,1 °C.
Hay que señalar que no debe confundirse la sensibilidad con el término
de zona muerta; son definiciones básicamente distintas que antes era fácil
confundir cuando la definición inicial de la sensibilidad era «valor mínimo en
que se ha de modificar la variable para apreciar un cambio medible en el índice
o en la pluma de registro del instrumento».
Sensibilidad =
|
Cambio en la cantidad que se esta midiendo
|
|
Cambio en la lectura de la escala del instrumento
|
|
Resolución o discriminación
Magnitud de los cambios en escalón de la señal de salida (expresados en
tanto por ciento de la salida de toda la escala) al ir variando continuamente
la medida en todo el campo. Es también el grado con que el instrumento puede
discriminar valores equivalentes de una cantidad.
Campo de medida (range)
Espectro o conjunto de valores de la variable medida que están
comprendidos dentro de los límites superior e inferior de la capacidad de
medida o de transmisión del instrumento; viene expresado estableciendo los dos
valores extremos. Por ejemplo: el campo de medida del instrumento de
temperatura de la figura 3 es de 100-300 °C.
Espacio muerto o banda muerta (dead zone o dead band)
Es el campo de valores de la variable que no hace variar la indicación o
la señal de salida del instrumento, es decir, que no produce su respuesta.
Viene dada en tanto por ciento del alcance de la medida. Por ejemplo: en el
instrumento de la figura 4.3 es de ± 0,1 %, es decir, de 0,1 X 200/100 = ± 0,2
°C.
Umbral
Cuando la magnitud objeto de medida aumenta gradualmente partiendo de
cero, es posible que tenga que alcanzar un nivel mínimo antes de que el
instrumento responda y proporcione una lectura perceptible.
Desplazamiento del cero
Ocurre cuando la medida cero no coincide con el cero de la escala, lo
normal es que sin sensar ninguna variable, se debe leer cero del instrumento.
Este problema puede cambiar con el tiempo.
De esta forma, por ejemplo, un medidor que tenga un día su aguja en la
marca cero, un mes más tarde puede indicar una lectura menor que cero a pesar
de que no ha sido utilizado para realizar ninguna medida.
Demora
Cuando la magnitud que está siendo medida cambia, puede transcurrir un
cierto tiempo, llamado tiempo de respuesta, antes de que el instrumento de
medida responda a dicho cambio.
Histéresis (Hysteresis)
La histéresis es la diferencia máxima que se observa en los valores
indicados por el índice o la pluma del instrumento para el mismo valor
cualquiera del campo de medida, cuando la variable recorre toda la escala en
los dos sentidos, ascendente y descendente.
Se expresa en tanto por ciento del alcance de la medida. Por ejemplo, si
en el instrumento de la figura 3 c es de ± 0,3 % su valor será de ± 0,3 % de
200 °C = ± 0,6 °C. En la figura 3 c pueden verse las curvas de histéresis que
están dibujadas exageradamente para apreciar bien su forma. Hay que señalar que
el término zona muerta está incluido dentro de la histéresis.
Función de transferencia
Es la relación matemática, gráfica o tabular entre las expresiones
función de tiempo de las señales de salida y de entrada a un sistema o
elemento. Equivale también al cociente de las transformadas de Laplace de las
funciones de respuesta y de excitación.
Calibración
Es el proceso de colocar marcas en un visualizador o comprobar un
sistema de medidas según unos estándares, cuando el transductor se encuentra en
un medio definido.
Deriva
Es una variación en la señal de salida que se presenta en un período de
tiempo determinado mientras se mantienen constantes la variable medida y todas
las condiciones ambientales. Se suelen considerar la deriva de cero (variación
en la señal de salida para el valor cero de la medida atribuible a cualquier
causa interna) y la deriva térmica de cero (variación en la señal de salida a
medida cero, debida a los efectos únicos de la temperatura). La deriva está
expresada usualmente en porcentaje de la señal de salida de la escala total a
la temperatura ambiente, por unidad, o por intervalo de variación de la
temperatura. Por ejemplo, la deriva térmica de cero de un instrumento en
condiciones de temperatura ambiente durante 1 mes fue de 0,2 % del alcance.
Temperatura de servicio
Es el campo de temperatura en el cual se espera que trabaje el
instrumento dentro de los límites de error especificados.
Vida útil de servicio
Es el tiempo mínimo durante el cual se aplican las características de
servicio continuo e intermitente del instrumento sin que se presenten cambios
en su comportamiento más allá de tolerancias especificadas.
TERMINOLOGÍA
A la hora de utilizar
un instrumento entran en juego una serie de términos relacionados con la
medición. Estos parámetros caracterizan cada instrumento y entre ellos podemos
destacar:
- Exactitud: Aproximación
con que la lectura de un instrumento se acerca al valor real de la
variable medida.
- Repetibilidad (precisión): Capacidad de un instrumento de dar
siempre un mismo resultado al medir la misma magnitud.
- Resolución: Cambio
más pequeño en el valor medido al cual responde el instrumento.
- Sensibilidad: Respuesta de un instrumento respecto a
un cambio en la variable medida.
No debemos confundir
los términos precisión (repetibilidad) y exactitud. La precisión no garantiza
la exactitud, pero la exactitud necesita de la precisión. Mientras que la
exactitud está referida al grado de aproximación entre el valor medido y el
valor real, la precisión especifica el grado de concordancia de un conjunto de
medidas.
La exactitud de los
instrumentos depende del tipo de presentación de las medidas, analógicas o
digitales. En indicadores analógicos este se da en % a fondo de escala (por ejemplo
3% a fondo de escala), mientras que en indicadores digitales se expresa en %
más un número de conteos del dígito menos significativo (por ejemplo 0,05% +/-
1 dígito).
La resolución en
instrumentos de presentación analógica es la típica de los sistemas gráficos y
escalas ( unos 0,3 mm ), sin embargo en los de presentación digital esta se
corresponde con el significado del dígito menos significativo. Así, un
amperímetro cuyo rango va desde 000,0 μA a 199,9 μA tiene una
resolución de 0,1 μA. El aumento de la resolución de un instrumento
depende de la sensibilidad y la aplicación. Así, en el ejemplo anterior, si se
aumenta la resolución en 0,001 μA, y la sensibilidad del amperímetro es
menor, los dos últimos dígitos responderán más a interferencias y ruido que a
cambios producidos en la entrada.
EJEMPLO:
Cuatro tipos:
1.
Instrumentales: Por ejemplo, un instrumento mal calibrado
como un termómetro que lee 102 °C cuando está sumergido en agua hirviendo y 2
°C cuando está sumergido en agua helada a presión atmosférica. Tal termómetro
producirá mediciones que son consistentemente demasiado altas.
2. De
observación: Por ejemplo, de paralaje en la lectura de una escala métrica.
3. Del medio
ambiente: Por ejemplo, una baja de tensión eléctrica que causa corrientes
medidas que son consistentemente muy bajas.
4. Teóricas: Debidas a
simplificaciones del sistema modelo o aproximaciones en las ecuaciones que lo
describen. Por ejemplo, si una fuerza de fricción está actuando durante el
experimento pero no está incluida en la teoría, los resultados estarán en
desacuerdo consistentemente.