Mostrando las entradas con la etiqueta Incertidumbre. Mostrar todas las entradas
Mostrando las entradas con la etiqueta Incertidumbre. Mostrar todas las entradas

sábado, 6 de febrero de 2016

Calibración simple de manómetros, por método validado y con cálculo de incertidumbre

Por Raúl Sejzer

La presión es una de las magnitudes más habituales en los procesos industriales. Existen diferentes instrumentos de medición de la presión. Cuando sólo precisamos indicación local generalmente utilizamos manómetros. Los manómetros pueden ser analógicos o digitales, dependiendo del tipo de indicación. En los manómetros del tipo analógico la indicación consiste en una aguja indicadora sobre una escalada graduada. En los digitales, la indicación aparece en un display electrónico. Existen manómetros para la medición de presiones relativas, absolutas y diferenciales. Hoy nos vamos a centrar en la calibración de manómetros analógicos de presión relativa.

Tal como lo exige la Norma ISO-IEC 17025:2005, todos los métodos de calibración utilizados deben estar validados. Aquí tenemos dos alternativas: tomar métodos ya desarrollados por algún ente reconocido (algún organismo nacional de metrología, por ejemplo) o diseñar nuestro propio método. Este último punto implica la tarea adicional de que algún ente externo avale nuestro método.

En estos casos, donde existen infinidad de laboratorios que realizan este servicio, desarrollar un nuevo método parecería no tener mucho sentido. Lo que se hace generalmente es tomar un método estándar y hacerle pequeñas modificaciones para adaptarlo a nuestra necesidad puntual. Existen dos documentos que recomiendo para el armado de nuestro procedimiento de calibración de manómetros:
  • El primero es el Procedimiento ME-003 para la Calibración de Manómetros, Vacuómetros y Manovacuómetros, redactado por el Centro Español de Metrología (CEM). Aquí tenemos dos grandes ventajas: la primera es que está en idioma español y la segunda es que su versión digital es gratuita. Pueden descargarlo de


  • El otro documento que recomiendo para este fin es Guideline DKD-R 6-1 Calibration of Pressure Gauges, procedimiento redactado por el DKD (red de laboratorios acreditados por el DAkkS, el organismo de metrología alemán). El mismo está disponible en inglés y alemán, y es hoy el procedimiento de referencia más utilizado en todo el mundo.

¿Qué precisamos?

  • Patrones de trabajo: puede tratarse de un manómetro analógico o digital de precisión o un calibrador digital. Deben seleccionarse patrones que tengan una incertidumbre de 4 a 10 veces mejor que la que esperamos del manómetro a calibrar. Por supuesto, todo con su certificado de calibración trazable y vigente.
  • Generador de presión: También debemos contar con un sistema de generación de presión. Los hay neumáticos e hidráulicos, bombas manuales o electrónicas. Muchos calibradores electrónicos hoy poseen generación de presión incorporada con una pequeña bomba neumática interna. Para presiones bajas (menores a 2MPa) es quizás la mejor alternativa. 
  • Conectores, tubos y adaptadores: para poder cubrir las conexiones habituales de los manómetros a ensayar.
  • Medidor de condiciones ambientales: en general se utilizan termohigrobarómetros. El mismo también debe poseer calibración vigente y trazable en temperatura ambiente, humedad relativa ambiente y presión atmosférica.
  • Otros: solución jabonosa para detectar fugas en las uniones.

¿Cuáles son los pasos a seguir?


En esta y otras calibraciones estándar existen una serie de pasos ordenados a seguir:
  1. Preparación del instrumento y los patrones
  2. Prueba de conformidad de clase y desperezado (no siempre se realiza, yo aquí lo recomiendo)
  3. Definición de los puntos de medida.
  4. Calibración.
  5. Toma y tratamiento de datos 
  6. Análisis de resultados y cálculo de incertidumbre.

1. Preparación del instrumento y los patrones:

  • El primer paso es identificar el manómetro a calibrar con todos los datos necesarios (marca, modelo, nùmero de serie, clase). 
  • Luego se debe realizar el conexionado, incluyendo el manómetro a calibrar, los patrones y el sistema de generación.

Conexionado típico. FUENTE:  Procedimiento ME-003 para la Calibración de Manómetros, Vacuómetros y Manovacuómetros (CEM)

  • Se recomienda en este punto realizar una prueba de fugas. Se debe presurizar todo el sistema. Si el fluido es gaseoso (aire, nitrógeno, etc) podemos utilizar una solución jabonosa para detectar fugas, especialmente en las uniones. Si el fluido es líquido (agua, aceite) detectaremos inmediatamente las fugas como pérdidas. En todos los casos se deben solucionar antes de proseguir.

2. Prueba de conformidad de clase y desperezado 


Si bien no es un requisito excluyente, se recomienda la realización de esta breve prueba. Tiene como primer objetivo desperezar al instrumento, es decir, eliminar cualquier inercia mecánica por falta de movimiento habitual o por suciedad. Una buena forma es realizar una carrera ascendente y otra descendente rápidas. Aquí detectaremos también alguna posible traba mecánica por suciedad o rotura del instrumento. En este último caso no podemos continuar con la calibración.
La prueba de conformidad de clase es una breve calibración en puntos claves que nos permite detectar desvíos muy notorios. En general se generan las presiones correspondientes al de menor valor, al de mitad y al de mayor valor de la escala. Si observamos desvíos importantes queda a consideración del operario seguir adelante, ya que con seguridad el instrumento está fuera de clase.


3. Definición de los puntos de medida


Para definir los puntos en los que se realizarán las mediciones y el nùmero de carreras, se toma como referencia la guía DKD-R 6-1 mencionada anteriormente:
Secuencias de calibración según guía DKD-R 6-1


Recuerden que la clase de este tipo de instrumentos está expresada generalmente en el error máximo en porcentaje sobre fondo de escala. Es decir, si nuestro manómetro es de 10 bar, el error máximo es de 0,25% de 10 bar = 0,025 bar = 25 mbar.

En la industria es común encontrarnos con manómetros clase 0.5, clase 1 y hasta 2.5.

En general los puntos de medida se toman equiespaciados del 10% al 100% del intervalo de medición, a menos que se seleccionen puntos específicos representativos que el usuario desee por algún motivo. También es habitual llevar a valores enteros, o que coincidan con marcas graduadas, para minimizar la incertidumbre por apreciación. 

Por ejemplo, si tenemos que calibrar un manómetro de 10 bar clase 1, debemos seleccionar 5 puntos más el cero. Si los seleccionamos equiespaciados, los puntos de calibración serán: 0, 2, 4, 6, 8, 10 para los que se realizarán 2 series (una ascendente y otra descendente):


4. Calibración


Una vez desperezado el manómetro y definidos los puntos de calibración, se procederá a calibrar el instrumento. Con el generador se irá entregando presión hasta alcanzar un valor cercano al primer punto definido de presión, A continuación, con el ajuste fino se modificará la presión hasta que la lectura del patrón o instrumento sea la deseada.Se recomienda fijar la indicación de la aguja del manómetro a los trazos de la escala cuando el manómetro a calibrar sea analógico, y por el contrario, fijar la indicación del patrón cuando el manómetro a calibrar sea digital. 

En el caso de que el manómetro a calibrar sea analógico, la lectura del mismo se realizará después de haberle hecho vibrar ligeramente para evitar errores producidos por fricciones mecánicas. La medida será válida siempre que el sistema sea estable y no se observen saltos o variaciones en las indicaciones del Patrón e Instrumento. Se repetirá este paso con los siguientes puntos de calibración, siempre aumentando la presión hasta llegar al valor máximo definido. El mismo proceso se realizará, pero ahora en sentido de presiones descendentes hasta llegar al cero del manómetro. Se realizará la lectura del cero, siempre que sea posible, y se volverá a iniciar el ciclo.

Una vez finalizada la calibración y antes de quitar el montaje conviene analizar los datos obtenidos por si fuese necesario repetir algún punto de valor dudoso.


5. Toma y tratamiento de datos


Los datos mínimos que deberían figurar en la correspondiente hoja de calibración  son:

  • Identificación inequívoca de la calibración.
  • Identificación del patrón y del instrumento.
  • Lecturas del patrón e instrumento indicando el sentido en que se ha generado la presión.
  • División de escala y resolución del manómetro.
  • Anomalías detectadas antes o durante la calibración como pueden ser atascos de la aguja indicadora, saltos bruscos, etc.
  • Fluido utilizado durante la calibración.
  • Condiciones ambientales durante la calibración.
  • Nivel de referencia, cuando sea significativo sobre los resultados finales.
  • Posición del instrumento durante la calibración, cuando sea significativo sobre los resultados finales.
  • Fechas de realización.
  • Identificación del personal que realizó la calibración.
  • Correcciones realizadas, como puede ser la de calibración del Patrón o la corrección por diferencia de alturas entre niveles de referencia.
  • Deberán rechazarse de la calibración de los manómetros todas aquellas medidas que no cumplan las exigencias siguientes:
    1. Cualquier duda sobre la bondad de la medida por parte del operador.
    2. Todas aquellas medidas que se hagan fuera de las condiciones ambientales establecidas por el Laboratorio.
    3. Aquellas en que no se consiga una buena estabilidad.

6. Interpretación de los datos


Los valores se darán tabulados indicando:
  • Presión de referencia.
  • Valor medio de la indicación del instrumento.
  • Correcciones o errores de calibración en cada punto.
  • La incertidumbre para un factor de cobertura k = 2 También se puede dar una incertidumbre máxima para todo el intervalo de calibración en lugar de dar una para cada punto.
  • En el certificado de calibración, se deberá indicar dar la incertidumbre expandida y especificarse el valor de cobertura utilizado.
NOTA
Si por el tipo de uso del manómetro no resulta aconsejable realizar las correcciones de calibración, se puede utilizar una incertidumbre maximizada, que englobaría la máxima corrección encontrada en la calibración, en valor absoluto.

7. Cálculo de Incertidumbre


Antes que nada se debe recordar que este método propuesto, así como el cálculo de incertidumbres, puede ser modificado en función de la necesidad puntual de cada laboratorio. Se trató de ofrecer algo estándar, o como guía para la redacción de los procedimientos de calibración y para la identificación de las fuentes de incertidumbre posibles, que en la mayoría de los casos son relevantes.
En el siguiente link podrán descargar un documento a modo de guía:


Desde ya, quedamos a disposición por cualquier duda, sugerencia o propuesta de mejora que tengan. Esperamos que sea de vuestra utilidad.

sábado, 24 de octubre de 2015

Incertidumbre de medición ¿de qué se trata realmente?

Por Raúl Sejzer

La incertidumbre es quizás el concepto más importante y, a la vez, el más dificil de asimilar e interpretar de la Metrología. Exige un amplio conocimiento de la medición que se está realizando, los métodos, la magnitud que está siendo analizada y las magnitudes o fenómenos que influyen sobre la calidad de la medida.

Primero veamos la definición que nos brinda el VIM:
Incertidumbre de medida / Incertidumbre: Parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un mensurando, a partir de la información que se utiliza.
¿A que se refiere realmente esta definición? La incertidumbre, dicho en otras palabras, es un parámetro que representa cuantitativamente la "duda" que tenemos sobre la medición realizada. Por una cuestión práctica contamos con información limitada de lo que estamos midiendo y de todas las fuentes que pueden influir en ella y en cómo interpretamos los datos obtenidos. Los valores obtenidos en una medición poseen una componente de duda, relacionada a cuán confiable es la medición que estamos realizando.

Recordemos que existe un concepto, algo abstracto de interpretar: el valor verdadero. El valor verdadero no es más que el valor real de la magnitud objeto de medición. Es un valor que nunca lograremos conocer realmente. Podemos acercarnos, acotarlo, pero no saber exactamente su valor. Cuando obtenemos el valor de una magnitud, a través de la medición, tenemos información incompleta de la misma. Además del valor obtenido, debemos tener información cuantitativa que nos indique la calidad de la medición. Aquí aparece el concepto de incertidumbre. La incertidumbre involucra todos los factores que afectan a la confiabilidad de la medida. La dispersión que menciona la definición del VIM corresponde a la variabilidad de los valores obtenidos en sucesivas medidas de una misma magnitud. Esta variabilidad proviene de que los métodos no son perfectos, o no estamos contemplando todos los factores que influyen en cómo obtengo los valores de medición y/o cómo los interpretamos y procesamos.

Imagen de Anja Heidsiek en Pixabay 

¿Lo vemos con un ejemplo?

La mejor forma de comprender de qué se trata es siempre a través de un ejemplo. Supongamos que deseamos medir la longitud de una pieza metálica con un calibre digital. Nuestro procedimiento nos exige tomar 5 medidas sucesivas de la pieza, retirando y volviendo a colocar el calibre. Supongamos, además, que se trata de una pieza perfecta de longitud 10 mm a 20 ºC y 1013 hPa de presión atmosférica.

Las sucesivas mediciones arrojaron los siguientes valores: 

10,01
10,00
10,02
9,99
10,01

¿Por qué razón existe esta variación? ¿A qué se debe que obtengamos distintos valores si la pieza es la misma y el instrumento es el mismo? Son muchos los factores que incluyen aquí. Algunas consideraciones importantes:

  • Dijimos que el valor verdadero de la longitud de la pieza es de 10 mm. Esto significa que la longitud es 10,00... e infinitos ceros en la parte decimal. Ahora bien, si nuestro calibre sólo nos muestra dos decimales (hasta la centésima de mm) ¿cómo sabemos que los decimales que no vemos son cero?. Aquí ya perdemos parte de la valiosa información. Aparece una de las fuentes más importantes de duda de nuestra medida, la incertidumbre por resolución.
  • Por otro lado, el hecho de retirar el calibre y volverlo a colocar entre sucesivas mediciones hace que no siempre lo coloquemos de igual manera, haciendo la misma fuerza, con el mismo ángulo de apoyo del calibre sobre las caras de la pieza, etc. Por más formación que posea el operario, no siempre logrará tomar la medida de la misma forma. 
  • Es bien conocido que la temperatura posee una influencia importante sobre la longitud. El valor verdadero de la longitud de 10mm es válido sólo a las temperaturas y presión atmosférica indicadas. Si, por ejemplo, la temperatura ambiente al realizar la medición es superior, la pieza se dilata y obtendremos una longitud mayor.
Esas son sólo algunas fuentes de incertidumbre, pero existen más. Es decir, cada tipo de medida (cada método) posee numerosas componentes de incertidumbre. Si su influencia es considerable, no despreciable, se debe cuantificar.

Tenemos en general dos tipos de componentes de incertidumbre:

Tipo A: están relacionadas con la dispersión estadística de las sucesivas medidas. La distribución puede caracterizarse por desviaciones típicas. La aleatoriedad juega un papel fundamental en este tipo de componentes. Aquí aparecen los conceptos de repetibilidad y reproducibilidad que veremos más adelante en otra publicación. Tiene que ver con la imposibilidad práctica real de realizar sucesivas mediciones bajo exactas condiciones: el operador, las condiciones ambientales, la interpretación del resultado.

Tipo B: son los obtenidos de la información adicional con la que contamos. Por ejemplo, una deriva, un coeficiente de variación de la magnitud con respecto a otra, el conocimiento de la clase o exactitud del instrumento, los lìmites conocidos, etc.


¿Cómo cuantificamos la incertidumbre?

En primer lugar, es importante aclarar que la manera correcta de expresar el resultado de una medición es siempre mediante un valor de medida (el obtenido o leído) acompañado de un valor de incertidumbre que englobe todas estas componentes.

Resultado de medida = Valor medido ± Incertidumbre de medida

La incertidumbre que se expresa es una combinación ponderada de todas las componentes de incertidumbre detectadas y expresadas numéricamente.


Pasos a seguir:

  1. Para cada tipo de medición que realicemos debemos identificar todas las fuentes posibles de incertidumbre.
  2. Luego debemos identificar si son del Tipo A o del Tipo B, para poder conocer su posterior tratamiento.
  3. A continuación, tenemos que expresar cuantitativamente dichas componentes en las mismas unidades de la magnitud que se está analizando para que puedan ser intercomparables. Aquí es donde se realiza el mayor trabajo, ya que debemos conocer la naturaleza de cada componente y su distribución estadística.
  4. Por último, se realiza una tabla en donde se encuentren enumeradas todas las fuentes de incertidumbre. A esto se lo conoce como balance de incertidumbres. De aquí se obtiene una combinación de todas las componentes conocida como incertidumbre combinada. A través de un factor de confianza, y convertida en incertidumbre expandida, es la que termina acompañando al valor de medida.

La importancia del GUM


Como es de suponer, existen infinidad de métodos y magnitudes a analizar. Sería imposible generalizar las componentes de incertidumbre y su análisis de una única manera. Sin embargo, hace ya unos años se decidió redactar una Guía para la Expresión de la Incertidumbre. Conocida popularmente por su abreviatura en inglés, el GUM es el documento por excelencia que nos guía en la manera de determinar las fuentes de incertidumbre y cómo tratarlas. Además de una base téorica estadística, cuenta con muchos ejemplos que pueden asemejarse a lo que estamos buscando y darnos una noción o una ayuda en la determinación de las fuentes que precisamos para nuestro análisis. Este documento es de libre acceso y, así como el VIM, tiene como función primordial la estandarización y la difusión de buenas prácticas metrológicas. Puede ser descargado libremente en español en el siguiente link del CEM (Centro Español de Metrología):



En futuras publicaciones veremos ejemplos de aplicación del cálculo de incertidumbres en diversos instrumentos de uso habitual.

•• Entrada destacada ••

Incertidumbre de medición ¿de qué se trata realmente?

Por Raúl Sejzer La incertidumbre es quizás el concepto más importante y, a la vez, el más dificil de asimilar e interpretar de la Metrol...