¿Qué es un transductor de presión?
La medición de la presión es un elemento importante en aplicaciones de hidráulica/neumática en procesos de control en todo tipo de aplicaciones (industria, agricultura, etc) para garantizar un funcionamiento seguro y un rendimiento óptimo.
Aparte de numerosos factores como la exactitud, la selección del rango de la presión apropiada es un factor fundamental para la adaptación del instrumento a la aplicación concreta.
Tipos de transductores de presión
Puedes conocer tipos de transductores de presión y sectores en el enlace anterior.
Recomendaciones para el uso de transductores de presión
Al seleccionar el rango de presión de un transmisor de presión hay que considerar dos factores:
1- Prevenir una destrucción debido a sobrecargas, causado por un rango bajo
2- Mantener la exactitud o una señal de salida demasiado bajo debido a un rango de presión demasiado amplio.
Una mirada a las hojas técnicas de varios fabricantes delata tres distintos conceptos referente al rango de presión de un transmisor de presión:
– Presión nominal de funcionamiento
– Presión de trabajo seguro
– Presión de rotura
Diferentes fabricantes pueden utilizar términos ligeramente diferentes (y siempre se debe preguntar acerca de una definición precisa) pero en principio hay un entendimiento común sobre los conceptos. Es importante tener en cuenta que sólo en el rango de presión nominal todos los valores que se especifican en la ficha técnica son aplicables. Esto es especialmente cierto si se trata de valores de exactitud / error. Una vez que supere el rango de presión nominal, los valores de la hoja de datos ya no son ciertos y pueden excederse, es decir, la señal de salida ya no puede utilizarse para obtener mediciones precisas.
¿Pero qué sucede, si el usuario selecciona un rango de medición mucho más amplio, es decir, el usuario sólo usa una fracción del rango de presión nominal, digamos 10 bar de un sensor de 100 bar?
No pasa nada. O al menos no mucho. La verdad es que la mayoría de los parámetros de precisión, tales como linealidad, repetibilidad, histéresis, etc., son parámetros que son en relación a la lectura / valor real, no a la escala completa. Su valor máximo se define en la hoja de datos y se expresa como un porcentaje del rango de presión nominal, pero el error en el servicio realmente “escala hacia abajo” con el uso.
Si la linealidad (mejor dicho: la no linealidad) es el 0,1% de la escala completa (valor final), esto significa que un sensor de presión de 100 bar puede experimentar una desviación de 0,1 bar desde la línea ideal y se espera que esto suceda en algún lugar cerca de la mitad del rango, es decir, a 50 bar. Pero cuando la medición se limita a sólo 25 bar con el mismo transmisor, se espera que la desviación de la linealidad no alcanza 1 bar sino sólo una fracción de este valor.
De hecho, si desea usar un sensor de 100 bar para medir la presión de 0 a 50 bar, el error de linealidad esperado entre 0 y 50 bar sería aprox. 0.025 bar y se espera que se mueva alrededor de 25 bar.
¿Y qué pasa con la resolución del transmisor de presión de proceso?
La única limitación que queda para considerar es la resolución de sus equipos electrónicos que reciben las señales, es decir, su tarjeta de entrada analógica de su PLC o la entrada de su instrumento o la pantalla. En la mayoría de los casos, hoy en día esto ya no es problemático, ya que normalmente proporcionan una resolución de 12 bits y más. Si volvemos a observar nuestro ejemplo anterior y suponemos que sólo utilizamos el sensor hasta 25 bar, esto todavía nos proporcionará una resolución de 10 bits (en caso de una de 12 bits A / D) proporcionar una resolución de 0,1% 0 … 25 bar (= 0.025 bar).
Es muy importante elegir el rango de presión adecuado para cada Aplicación, Lo que no resulta complejo ya que los transmisores de presión modernos proporcionan un gran número de rangos para seleccionar.
Es más importante considerar la sobrepresión de cada aplicación que preocuparse por la reducción de la exactitud o la resolución.