martes, 27 de diciembre de 2016

Determinación del Intervalo de Calibración Óptimo en Aplicaciones de Metrología No Legal

Por Raúl Sejzer


Desde hace décadas, la determinación de intervalos de calibración óptimos ha sido motivo de discusión entre metrólogos, usuarios y fabricantes de instrumentos. Las primeras aproximaciones buscaban la generalización, pero quedó ampliamente demostrado que no era el camino correcto. Hoy coexisten diferentes corrientes, con un cúmulo de métodos cuya selección depende fuertemente de la aplicación puntual. Se cuenta en la actualidad con métodos basados en datos estadísticos, los cuales exigen que exista información histórica del instrumento a analizar, métodos algorítmicos que pueden utilizarse con una confiabilidad considerable sin necesidad de poseer datos de calibraciones previas, y otros métodos más sencillos basados, por ejemplo, en la actualización dinámica de los intervalos según los resultados de la última calibración. 
Enumeraremos las diferentes alternativas disponibles actualmente, reconocidas científicamente a nivel mundial, permitiendo destacar las características distintivas de cada tipo. Se obviarán los casos en los que existan exigencias de terceros que tengan incidencia sobre la decisión. En particular, no se tendrán en cuenta aplicaciones de metrología legal.


1. INTRODUCCIÓN


Todo instrumento de medición, sea cual fuere su ubicación dentro de la pirámide de trazabilidad metrológica, debería ser calibrado periódicamente para garantizar que su funcionamiento se encuentre dentro de lo especificado y de lo esperado para el uso previsto. En la actualidad, la mayoría de las normas internacionales de gestión de la calidad, la seguridad y el medio ambiente exigen que los equipos utilizados en medición y monitoreo de las variables físicas y químicas claves se encuentren calibrados, con una frecuencia de calibración determinada, siempre que sea aplicable. La principal dificultad se encuentra en la determinación del intervalo adecuado entre calibraciones. La elección del intervalo es siempre una relación de compromiso entre el costo de la calibración y el riesgo de que el instrumento salga de tolerancia antes de la próxima calibración.

Existe para cada instrumento un factor de incertidumbre que hace inevitable la aparición potencial de resultados fuera de la tolerancia definida (OOT: Out of Tolerance).

En todos los casos, se deben utilizar dos criterios dependiendo de la etapa en la que se encuentre el análisis. En primer lugar, se debe determinar el intervalo de calibración inicial. Luego, es necesario seleccionar un método específico con el objeto de reevaluar los intervalos subsiguientes de manera sistemática.


2. DETERMINACIÓN DEL INTERVALO INICIAL


Para determinar el intervalo de calibración adecuado, por primera vez, para un instrumento en particular se deben tener algunas consideraciones importantes entre las que se destacan: cuál es el uso previsto y la criticidad de sus resultados, qué recomiendan el fabricante y los organismos reconocidos y qué información disponible existe sobre equipamiento de similares prestaciones.

Es muy habitual encontrar recomendaciones iniciales por parte de los fabricantes sobre períodos de doce meses sin mayores argumentos. Esto deriva, en realidad, de que existen reglamentaciones legales que los fabricantes de dispositivos electrónicos deben cumplir, entre lo que se encuentra la exigencia de que todo equipo nuevo (incluidos los instrumentos electrónicos) debe encontrarse dentro de especificaciones al menos en su primer año de uso. Es por esto que los ingenieros de diseño cumplen con lo mínimo indispensable para conseguir esta especificación [1].


3. DETERMINACIÓN DE INTERVALOS DE CALIBRACIÓN MEDIANTE MÉTODOS RECOMENDADOS


En función de las diferentes necesidades surgidas fueron desarrollándose y perfeccionándose una serie de métodos para la determinación de los intervalos de calibración adecuados para cada aplicación. Dos documentos fundamentales han sentado las bases de esta búsqueda permanente. Por un lado, la Organización Internacional de Metrología Legal (OIML) lanzó en 1984 su guía OIML D 10, que recién en el año 2005 sería reconocida por ILAC (International Laboratory Accreditation Cooperation). Ambas organizaciones editarían la guía ILAC-G24 / OIML D 10 cuya última versión disponible data de 2007. El propósito de este documento es guiar a los laboratorios en la determinación de los intervalos de calibración correctos, identificando los factores principales que deben ser tenidos en cuenta [2]. Esta guía sugiere cinco métodos que pueden ser seleccionados en función de la necesidad:
  • Método escalera (Staircase): sencillo y versátil. Cada intervalo se incrementa o decrementa dependiendo del comportamiento del instrumento en el intervalo anterior.
  • Gráfica de control (Control chart): se monitorean puntos estratégicos y se los compara en cada calibración, para determinar el intervalo de calibración óptimo según los datos obtenidos de deriva y dispersión de los valores.
  • Tiempo de uso (“In-time” use): se lleva un control de las horas de uso reales del instrumento mediante la vinculación con un cronómetro.
  • Caja negra (Black box testing): se utiliza en instrumentos complejos. Se realiza un control y seguimiento de parámetros fundamentales. Cuando se encuentran fuera de especificación, se calibra nuevamente el instrumento.
  • Aproximación estadística (Statistical approaches): se utilizan herramientas estadísticas complejas, generalmente a través del uso de software específico. Poseen un alto grado de efectividad.

Por otro lado, en el año 1979 la National Conference of Standards Laboratories (actual NCSL International) lanzó su guía de prácticas recomendadas denominada RP-1. Desde 1996 se encuentra vigente su tercera edición y se trabaja en una cuarta edición [3]. En la guía RP-1 se encuentran descritas metodologías ampliamente estudiadas y aplicadas, las cuales pueden ser clasificadas en dos clases: métodos estadísticos y métodos algorítmicos

Los métodos estadísticos suelen ser efectivos, pero requieren de un grado de conocimiento considerable de herramientas estadísticas y de una cantidad de datos importante sobre la historia previa del instrumento. Esto los hace costosos y difíciles de implementar, en particular cuando existe poca o nula información histórica [4]. Los métodos algorítmicos, en cambio, suelen ser efectivos en relación costo-desempeño. Son sencillos de implementar y no requieren conocer el historial del instrumento, quizás el último resultado, pero no resultados más antiguos [5,6].

4. CONCLUSIÓN


Además de la correcta elección del intervalo inicial de calibración en función de datos brindados por el fabricante, referencias similares y el conocimiento del uso previsto, existen diferentes metodologías para la determinación de los intervalos de calibración  posteriores.  El método adecuado dependerá principalmente de los costos, la disponibilidad de datos y herramientas y la capacidad de los metrólogos en resolver cálculos y estimaciones complejas. 

En futuras publicaciones profundizaremos sobre estos métodos.

5. REFERENCIAS


[1] B. Soriano, V. Aranda, N. Gutiérrez, “Determinación de Intervalos de Calibración”, MetAs & Metrólogos Asociados, La Guía MetAS, octubre de 2004.
[2] ILAC-OIML, “ILAC-G24 / OIML D 10 – Guidelines for the determination of calibration intervals of measuring instruments” ILAC-OIML, 2007.
[3] NCSLI, “Recommended Practice RP-1 – Establishment and Adjustment of Calibration Intervals,” NCSL International 173.1 Committee, 2010.
[4] K. Chu, “A Practical Guide to Adjusting Calibration Intervals”, Kihomac Inc., NCSLI Workshop and Symposium, 2014.
[5] M. Kuster, G. Cenker, H. Castrup, “Calibration Interval Adjustment Methods: Quantitative Comparison and Optimization”, Measurement Science Conference Proceedings, Pasadena, CA, 2011.
[6] M. Kuster, G. Cenker, H. Castrup, “Calibration Interval Adjustment: The Effectiveness of Algorithmic Methods”, Proc. 2009 NCSLI Workshop and Symposium, San Antonio, TX, July 27-30.

lunes, 17 de octubre de 2016

¿Cada cuánto debemos calibrar nuestros instrumentos?

Por Raúl Sejzer

Una de las consultas más habituales que reciben los laboratorios de calibración es:

¿Con qué frecuencia se deben calibrar los instrumentos?.

Derribemos el mito, sin rodeos: no existe exigencia ni normativa alguna ya que cada caso es particular. Si bien la mayoría de normas de gestión vigentes exigen que los instrumentos de medición utilizados se calibren frecuente y sistemáticamente, no se aclara específicamente la frecuencia. Esto se debe a que sería imposible generalizar para todos los casos.
La frecuencia dependerá de varios factores, entre los que se destacan:

  • La criticidad del uso: si el instrumento se utiliza para medir y/o controlar algún proceso sensible se debe poseer mayor control sobre él. Se lo debe calibrar con mayor asiduidad para evitar la detección tardía de desvíos o derivas.
  • El uso que se le dé: no es lo mismo un instrumento que se utiliza varias veces al día que uno que sólo se ocupa una vez al mes para alguna medición o ensayo puntual.
  • Las recomendaciones del fabricante: muchos fabricantes de instrumentos suelen recomendar períodos de recalibración. Nadie como el fabricante conoce el instrumento y puede predecir su comportamiento en el tiempo, basándose en estadística confiable.
  • Si se observa un comportamiento llamativo en cuanto a la deriva del mismo: si entre calibración y calibración (durante un tiempo prudente) se observan variaciones mínimas o despreciables, se puede aumentar la frecuencia. Por otro lado, si se detecta una variación mayor a lo esperado se debe reducir la frecuencia.
  • Metrología Legal: En muchos casos puede existir una exigencia externa de tipo legal, impuesta por algún organismo especialmente cuando los instrumentos son utilizados para realizar mediciones en transacciones comerciales (por ejemplo, expendio de combustibles, peso de productos alimenticios para su comercialización) o en parámetros ambientales y de seguridad (emisiones gaseosas, ruido, calidad del agua) en los que el estado deba intervenir.
Aclaremos algo sumamente importante. Para poder generalizar y cubrir todos los casos, las normas son flexibles en cuanto a las frecuencias, pero esto no quiere decir que no haya que establecerlas y cumplirlas. Resumiendo, uno debe definir instrumento por instrumento con qué frecuencia deben ser calibrados. Esto se realiza a través de programas (normalmente planes anuales) de calibración. Un Programa de Calibración es un registro en el cual se listan todos los instrumentos existentes y la frecuencia de calibración de cada uno de ellos para el período en cuestión, definiéndose fechas tentativas de realización.

Por ejemplo, si nuestro programa es anual, y un instrumento tiene una frecuencia semestral de calibración deben establecerse dos fechas dentro del programa para dicho equipo. Una vez definidas las frecuencias de todos los instrumentos, se debe cumplir a rajatabla lo planificado. Para muchas normas, como la ISO/IEC 17025:2005, este registro debe estar documentado sin excepción. Caso contrario, se puede generar una No Conformidad, que para el caso de laboratorios de calibración y/o ensayo se suele considerar grave.

Una planificación adecuada permite optimizar tiempos y evitar inconvenientes. Conocer con anticipación las fechas de realización de las calibraciones tiene importantes ventajas: 
  • Si la calibración la realiza un laboratorio externo, permite coordinar con tiempo la disponibilidad de recursos, la logística, etc. También se podrá estimar cuánto tiempo el equipo se encontrará fuera de servicio.
  • Si la calibración se realiza con patrones propios, se pueden administrar los recursos necesarios que garanticen la disponibilidad de los mismos en tiempo y forma.
La frecuencia mínima de calibración es la preestablecida en el programa correspondiente. Aunque existen casos en los que puede ser necesaria la realización de una calibración extraordinaria. En general, esto sucede cuando existe evidencia o sospecha de mal funcionamiento. Si, por ejemplo, el instrumento sufre un golpe o es sometido a condiciones ambientales por fuera de los valores mínimos y/o máximos definidos por el fabricante, es altamente probable que su funcionamiento se haya visto afectado. Ante esta situación, el instrumento debe ser separado, señalado como fuera de uso y rotulado como tal para evitar su utilización. Luego se lo debe calibrar. El resultado de la calibración extraordinaria determinará si su funcionamiento se modificó, si se requiere un ajuste (con posterior recalibración) para volver a utilizarse o si el instrumento se dañó irreversiblemente.

Hemos dado algunos lineamientos generales orientativos para aplicaciones relativamente sencillas. Estrictamente hablando, la determinación de los intervalos óptimos (lo suficientemente largos para disminuir costos aunque lo bastante cortos para evitar posibles errores en funcionamiento y desvíos) lleva muchos años de desarrollo. Hoy coexisten numerosos métodos para su estimación, los cuales serán resumidos en la próxima publicación.


viernes, 20 de mayo de 2016

20 de Mayo - Día Mundial de la Metrología


En homenaje a la Convención del Metro celebrada el 20 de Mayo de 1875 en París, cada aniversario se celebra el Día Mundial de la Metrología. Este tratado internacional fue firmado originalmente por 11 países europeos, aunque con el paso del tiempo se fueron adhiriendo más países de todos los continentes. Actualmente, son 51 los países miembros. De los países de habla hispana, España formó parte de la Convención original, Argentina adhirió un par de años más tarde (1877), Venezuela en 1879, México en 1890, Chile y Uruguay en 1908, República Dominicana en 1954, Perú en 1975, Ecuador y Cuba en 2000, Panamá en 2003, Costa Rica en 2004, la Comunidad del Caribe en 2005 y, por último, Colombia en 2012.

Desde 2004, cada año se elige un tópico alrededor del cual se desarrollarán todas las actividades a nivel mundial, bajo un proyecto conocido como World Metrology Day (WDM). Años anteriores se tocaron temas como las mediciones en la vida cotidiana, las mediciones en la seguridad, en los juegos, o las mediciones para el ahorro energético. En esta oportunidad, para 2016, el tema es "Mediciones en un mundo dinámico". Este proyecto, de suma importancia para la difusión universal de la metrología es organizado en conjunto, por el BIPM y el OIML.
  
Póster de difusión del WMD 2016 - Click para mayor información

¡Desde MetroMundo les deseamos un muy feliz
día a quienes hacen de la Metrología una ciencia fascinante!


martes, 23 de febrero de 2016

Material fundamental de Metrología para descargar de manera libre y gratuita (Parte I)

Los organismos de metrología tienen, además de la tarea de estandarización técnica, un rol muy importante en cuanto a la difusión de los conceptos de metrología, su importancia y aplicaciones en distintos campos. Los organismos nacionales y multinacionales de metrología se han encargado durante muchos años de redactar documentos de referencia con este propósito. Es por esto, que hoy se cuenta con un paquete interesante de información confiable sobre metrología, o sobre ramas específicas de ella, disponible de manera gratuita y al alcance de todos. 

En primer lugar, les acercamos las afamadas Guías de Calibración de EURAMET (European Association of National Metrology Institutes) redactadas por este organismo que nuclea a los institutos nacionales de metrología de Europa. Agregamos algunos documentos generales  de EURAMET que no deberían dejar de tener.

Se incluyen las guías originales en inglés sobre calibración de diversas magnitudes (temperatura, presión, dimensional, masa, eléctricas, dureza, etc):
  • EURAMET/cg-02/v.01 - Calibration of Gauge Block Comparators (2007)
  • EURAMET/cg-3/Version 1.0 - Calibration of Pressure Balances (2011)
  • EURAMET/cg-04/v.01 - Uncertainty of Force Measurements (2010)
  • EURAMET/cg-06/v.01 - Extent of Calibration for Cylindrical Diameter Standards (2007)
  • EURAMET/cg-8/Version 2.1 - Calibration of Thermocouples (2011)
  • EURAMET/cg-09/v.01 - Measurement and Generation of Small AC Voltages with Inductive Voltage Dividers (2007)
  • EURAMET/cg-10/v.01 - Determination of Pitch Diameter of Parallel Thread Gauges by Mechanical Probing (2007)
  • EURAMET/cg-11/Version 2.0 - Guidelines on the Calibration of Temperature Indicators and Simulators by Electrical Simulation and Measurement (2011)
  • EURAMET/cg-12/Version 2.0 - Guidelines on the Evaluation of Vector Network Analysers (VNA) (2011)
  • EURAMET/cg-13/Version 3.0 - Calibration of Temperature Block Calibrators (2015)
  • EURAMET/cg-14/Version 2.0 - Guidelines on the Calibration of Static Torque Measuring Devices (2011)
  • EURAMET/cg-15/Version 3.0 - Guidelines on the Calibration of Digital Multimeters (2015)
  • EURAMET/cg-16/v.01 - Guidelines on the Estimation of Uncertainty in Hardness Measurements (2007)
  • EURAMET/cg-17/v.01 - Guidelines on the Calibration of Electromechanical Manometers (2007)
  • EURAMET/cg-18/v.02 - Guidelines on the Calibration of Non-Automatic Weighing Instruments (2009)
  • EURAMET/cg-19/v.01 - Guidelines on the determination of uncertainty in gravimetric volume calibration (2009)
  • EURAMET/cg-20/Version 4.0 - Calibration of Temperature and/or Humidity Enclosures (2015)
  • EURAMET/cg-21/Version 1.0 - Guidelines on the Calibration of Standard Capacity Measures using the Volumetric Method (2013)
Además, dentro del mismo link les agregamos:
  • SIM MWG7/cg-01/v.00 - Guía para la calibración de los instrumentos para pesar de funcionamiento no automático (2009) - Traducción al español de la cg-18 de EURAMET realizada por el SIM (Sistema Interamericano de Metrología).
  • EURAMET/cg-04/v.01 Esp - Incertidumbre en Mediciones de Fuerza - Traducción al español de la cg-04 de EURAMET realizada por el CEM (Centro Español de Metrología).
Y por último, los documentos que todo metrólogo debe tener:
  • Metrología Abreviada - 2da edición en español, traducida de la 3ra edición del documento de EURAMET "Metrology - in short©" de 2008. Realizada por el CEM. (2008)
  • JCGM 200:2012 Vocabulario Internacional de Metrología - Conceptos fundamentales y generales, y términos asociados (VIM) (2012)
  • EA 4/02 - Expression of the Uncertainty of Measurement in Calibration - EA (European co-operation for Accreditation) (1999)
  • JCGM 100:2008 - Evaluación de datos de medición, Guía para la expresión de la incertidumbre de medida - Traducción del GUM 1995 en inglés, con ligeras correcciones, redactada por el CEM (2008)
Esperamos que les sean de utilidad. En otras entregas iremos acercándoles más información de utilidad. Desde ya, quedamos abiertos a cualquier necesidad que Uds tengan sobre algún tema o magnitud en particular. 

Link de descarga




sábado, 6 de febrero de 2016

Calibración simple de manómetros, por método validado y con cálculo de incertidumbre

Por Raúl Sejzer

La presión es una de las magnitudes más habituales en los procesos industriales. Existen diferentes instrumentos de medición de la presión. Cuando sólo precisamos indicación local generalmente utilizamos manómetros. Los manómetros pueden ser analógicos o digitales, dependiendo del tipo de indicación. En los manómetros del tipo analógico la indicación consiste en una aguja indicadora sobre una escalada graduada. En los digitales, la indicación aparece en un display electrónico. Existen manómetros para la medición de presiones relativas, absolutas y diferenciales. Hoy nos vamos a centrar en la calibración de manómetros analógicos de presión relativa.

Tal como lo exige la Norma ISO-IEC 17025:2005, todos los métodos de calibración utilizados deben estar validados. Aquí tenemos dos alternativas: tomar métodos ya desarrollados por algún ente reconocido (algún organismo nacional de metrología, por ejemplo) o diseñar nuestro propio método. Este último punto implica la tarea adicional de que algún ente externo avale nuestro método.

En estos casos, donde existen infinidad de laboratorios que realizan este servicio, desarrollar un nuevo método parecería no tener mucho sentido. Lo que se hace generalmente es tomar un método estándar y hacerle pequeñas modificaciones para adaptarlo a nuestra necesidad puntual. Existen dos documentos que recomiendo para el armado de nuestro procedimiento de calibración de manómetros:
  • El primero es el Procedimiento ME-003 para la Calibración de Manómetros, Vacuómetros y Manovacuómetros, redactado por el Centro Español de Metrología (CEM). Aquí tenemos dos grandes ventajas: la primera es que está en idioma español y la segunda es que su versión digital es gratuita. Pueden descargarlo de


  • El otro documento que recomiendo para este fin es Guideline DKD-R 6-1 Calibration of Pressure Gauges, procedimiento redactado por el DKD (red de laboratorios acreditados por el DAkkS, el organismo de metrología alemán). El mismo está disponible en inglés y alemán, y es hoy el procedimiento de referencia más utilizado en todo el mundo.

¿Qué precisamos?

  • Patrones de trabajo: puede tratarse de un manómetro analógico o digital de precisión o un calibrador digital. Deben seleccionarse patrones que tengan una incertidumbre de 4 a 10 veces mejor que la que esperamos del manómetro a calibrar. Por supuesto, todo con su certificado de calibración trazable y vigente.
  • Generador de presión: También debemos contar con un sistema de generación de presión. Los hay neumáticos e hidráulicos, bombas manuales o electrónicas. Muchos calibradores electrónicos hoy poseen generación de presión incorporada con una pequeña bomba neumática interna. Para presiones bajas (menores a 2MPa) es quizás la mejor alternativa. 
  • Conectores, tubos y adaptadores: para poder cubrir las conexiones habituales de los manómetros a ensayar.
  • Medidor de condiciones ambientales: en general se utilizan termohigrobarómetros. El mismo también debe poseer calibración vigente y trazable en temperatura ambiente, humedad relativa ambiente y presión atmosférica.
  • Otros: solución jabonosa para detectar fugas en las uniones.

¿Cuáles son los pasos a seguir?


En esta y otras calibraciones estándar existen una serie de pasos ordenados a seguir:
  1. Preparación del instrumento y los patrones
  2. Prueba de conformidad de clase y desperezado (no siempre se realiza, yo aquí lo recomiendo)
  3. Definición de los puntos de medida.
  4. Calibración.
  5. Toma y tratamiento de datos 
  6. Análisis de resultados y cálculo de incertidumbre.

1. Preparación del instrumento y los patrones:

  • El primer paso es identificar el manómetro a calibrar con todos los datos necesarios (marca, modelo, nùmero de serie, clase). 
  • Luego se debe realizar el conexionado, incluyendo el manómetro a calibrar, los patrones y el sistema de generación.

Conexionado típico. FUENTE:  Procedimiento ME-003 para la Calibración de Manómetros, Vacuómetros y Manovacuómetros (CEM)

  • Se recomienda en este punto realizar una prueba de fugas. Se debe presurizar todo el sistema. Si el fluido es gaseoso (aire, nitrógeno, etc) podemos utilizar una solución jabonosa para detectar fugas, especialmente en las uniones. Si el fluido es líquido (agua, aceite) detectaremos inmediatamente las fugas como pérdidas. En todos los casos se deben solucionar antes de proseguir.

2. Prueba de conformidad de clase y desperezado 


Si bien no es un requisito excluyente, se recomienda la realización de esta breve prueba. Tiene como primer objetivo desperezar al instrumento, es decir, eliminar cualquier inercia mecánica por falta de movimiento habitual o por suciedad. Una buena forma es realizar una carrera ascendente y otra descendente rápidas. Aquí detectaremos también alguna posible traba mecánica por suciedad o rotura del instrumento. En este último caso no podemos continuar con la calibración.
La prueba de conformidad de clase es una breve calibración en puntos claves que nos permite detectar desvíos muy notorios. En general se generan las presiones correspondientes al de menor valor, al de mitad y al de mayor valor de la escala. Si observamos desvíos importantes queda a consideración del operario seguir adelante, ya que con seguridad el instrumento está fuera de clase.


3. Definición de los puntos de medida


Para definir los puntos en los que se realizarán las mediciones y el nùmero de carreras, se toma como referencia la guía DKD-R 6-1 mencionada anteriormente:
Secuencias de calibración según guía DKD-R 6-1


Recuerden que la clase de este tipo de instrumentos está expresada generalmente en el error máximo en porcentaje sobre fondo de escala. Es decir, si nuestro manómetro es de 10 bar, el error máximo es de 0,25% de 10 bar = 0,025 bar = 25 mbar.

En la industria es común encontrarnos con manómetros clase 0.5, clase 1 y hasta 2.5.

En general los puntos de medida se toman equiespaciados del 10% al 100% del intervalo de medición, a menos que se seleccionen puntos específicos representativos que el usuario desee por algún motivo. También es habitual llevar a valores enteros, o que coincidan con marcas graduadas, para minimizar la incertidumbre por apreciación. 

Por ejemplo, si tenemos que calibrar un manómetro de 10 bar clase 1, debemos seleccionar 5 puntos más el cero. Si los seleccionamos equiespaciados, los puntos de calibración serán: 0, 2, 4, 6, 8, 10 para los que se realizarán 2 series (una ascendente y otra descendente):


4. Calibración


Una vez desperezado el manómetro y definidos los puntos de calibración, se procederá a calibrar el instrumento. Con el generador se irá entregando presión hasta alcanzar un valor cercano al primer punto definido de presión, A continuación, con el ajuste fino se modificará la presión hasta que la lectura del patrón o instrumento sea la deseada.Se recomienda fijar la indicación de la aguja del manómetro a los trazos de la escala cuando el manómetro a calibrar sea analógico, y por el contrario, fijar la indicación del patrón cuando el manómetro a calibrar sea digital. 

En el caso de que el manómetro a calibrar sea analógico, la lectura del mismo se realizará después de haberle hecho vibrar ligeramente para evitar errores producidos por fricciones mecánicas. La medida será válida siempre que el sistema sea estable y no se observen saltos o variaciones en las indicaciones del Patrón e Instrumento. Se repetirá este paso con los siguientes puntos de calibración, siempre aumentando la presión hasta llegar al valor máximo definido. El mismo proceso se realizará, pero ahora en sentido de presiones descendentes hasta llegar al cero del manómetro. Se realizará la lectura del cero, siempre que sea posible, y se volverá a iniciar el ciclo.

Una vez finalizada la calibración y antes de quitar el montaje conviene analizar los datos obtenidos por si fuese necesario repetir algún punto de valor dudoso.


5. Toma y tratamiento de datos


Los datos mínimos que deberían figurar en la correspondiente hoja de calibración  son:

  • Identificación inequívoca de la calibración.
  • Identificación del patrón y del instrumento.
  • Lecturas del patrón e instrumento indicando el sentido en que se ha generado la presión.
  • División de escala y resolución del manómetro.
  • Anomalías detectadas antes o durante la calibración como pueden ser atascos de la aguja indicadora, saltos bruscos, etc.
  • Fluido utilizado durante la calibración.
  • Condiciones ambientales durante la calibración.
  • Nivel de referencia, cuando sea significativo sobre los resultados finales.
  • Posición del instrumento durante la calibración, cuando sea significativo sobre los resultados finales.
  • Fechas de realización.
  • Identificación del personal que realizó la calibración.
  • Correcciones realizadas, como puede ser la de calibración del Patrón o la corrección por diferencia de alturas entre niveles de referencia.
  • Deberán rechazarse de la calibración de los manómetros todas aquellas medidas que no cumplan las exigencias siguientes:
    1. Cualquier duda sobre la bondad de la medida por parte del operador.
    2. Todas aquellas medidas que se hagan fuera de las condiciones ambientales establecidas por el Laboratorio.
    3. Aquellas en que no se consiga una buena estabilidad.

6. Interpretación de los datos


Los valores se darán tabulados indicando:
  • Presión de referencia.
  • Valor medio de la indicación del instrumento.
  • Correcciones o errores de calibración en cada punto.
  • La incertidumbre para un factor de cobertura k = 2 También se puede dar una incertidumbre máxima para todo el intervalo de calibración en lugar de dar una para cada punto.
  • En el certificado de calibración, se deberá indicar dar la incertidumbre expandida y especificarse el valor de cobertura utilizado.
NOTA
Si por el tipo de uso del manómetro no resulta aconsejable realizar las correcciones de calibración, se puede utilizar una incertidumbre maximizada, que englobaría la máxima corrección encontrada en la calibración, en valor absoluto.

7. Cálculo de Incertidumbre


Antes que nada se debe recordar que este método propuesto, así como el cálculo de incertidumbres, puede ser modificado en función de la necesidad puntual de cada laboratorio. Se trató de ofrecer algo estándar, o como guía para la redacción de los procedimientos de calibración y para la identificación de las fuentes de incertidumbre posibles, que en la mayoría de los casos son relevantes.
En el siguiente link podrán descargar un documento a modo de guía:


Desde ya, quedamos a disposición por cualquier duda, sugerencia o propuesta de mejora que tengan. Esperamos que sea de vuestra utilidad.

sábado, 24 de octubre de 2015

Incertidumbre de medición ¿de qué se trata realmente?

Por Raúl Sejzer

La incertidumbre es quizás el concepto más importante y, a la vez, el más dificil de asimilar e interpretar de la Metrología. Exige un amplio conocimiento de la medición que se está realizando, los métodos, la magnitud que está siendo analizada y las magnitudes o fenómenos que influyen sobre la calidad de la medida.

Primero veamos la definición que nos brinda el VIM:
Incertidumbre de medida / Incertidumbre: Parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un mensurando, a partir de la información que se utiliza.
¿A que se refiere realmente esta definición? La incertidumbre, dicho en otras palabras, es un parámetro que representa cuantitativamente la "duda" que tenemos sobre la medición realizada. Por una cuestión práctica contamos con información limitada de lo que estamos midiendo y de todas las fuentes que pueden influir en ella y en cómo interpretamos los datos obtenidos. Los valores obtenidos en una medición poseen una componente de duda, relacionada a cuán confiable es la medición que estamos realizando.

Recordemos que existe un concepto, algo abstracto de interpretar: el valor verdadero. El valor verdadero no es más que el valor real de la magnitud objeto de medición. Es un valor que nunca lograremos conocer realmente. Podemos acercarnos, acotarlo, pero no saber exactamente su valor. Cuando obtenemos el valor de una magnitud, a través de la medición, tenemos información incompleta de la misma. Además del valor obtenido, debemos tener información cuantitativa que nos indique la calidad de la medición. Aquí aparece el concepto de incertidumbre. La incertidumbre involucra todos los factores que afectan a la confiabilidad de la medida. La dispersión que menciona la definición del VIM corresponde a la variabilidad de los valores obtenidos en sucesivas medidas de una misma magnitud. Esta variabilidad proviene de que los métodos no son perfectos, o no estamos contemplando todos los factores que influyen en cómo obtengo los valores de medición y/o cómo los interpretamos y procesamos.

¿Lo vemos con un ejemplo?

La mejor forma de comprender de qué se trata es siempre a través de un ejemplo. Supongamos que deseamos medir la longitud de una pieza metálica con un calibre digital. Nuestro procedimiento nos exige tomar 5 medidas sucesivas de la pieza, retirando y volviendo a colocar el calibre. Supongamos, además, que se trata de una pieza perfecta de longitud 10 mm a 20 ºC y 1013 hPa de presión atmosférica.


Las sucesivas mediciones arrojaron los siguientes valores: 

10,01
10,00
10,02
9,99
10,01

¿Por qué razón existe esta variación? ¿A qué se debe que obtengamos distintos valores si la pieza es la misma y el instrumento es el mismo? Son muchos los factores que incluyen aquí. Algunas consideraciones importantes:

  • Dijimos que el valor verdadero de la longitud de la pieza es de 10 mm. Esto significa que la longitud es 10,00... e infinitos ceros en la parte decimal. Ahora bien, si nuestro calibre sólo nos muestra dos decimales (hasta la centésima de mm) ¿cómo sabemos que los decimales que no vemos son cero?. Aquí ya perdemos parte de la valiosa información. Aparece una de las fuentes más importantes de duda de nuestra medida, la incertidumbre por resolución.
  • Por otro lado, el hecho de retirar el calibre y volverlo a colocar entre sucesivas mediciones hace que no siempre lo coloquemos de igual manera, haciendo la misma fuerza, con el mismo ángulo de apoyo del calibre sobre las caras de la pieza, etc. Por más formación que posea el operario, no siempre logrará tomar la medida de la misma forma. 
  • Es bien conocido que la temperatura posee una influencia importante sobre la longitud. El valor verdadero de la longitud de 10mm es válido sólo a las temperaturas y presión atmosférica indicadas. Si, por ejemplo, la temperatura ambiente al realizar la medición es superior, la pieza se dilata y obtendremos una longitud mayor.
Esas son sólo algunas fuentes de incertidumbre, pero existen más. Es decir, cada tipo de medida (cada método) posee numerosas componentes de incertidumbre. Si su influencia es considerable, no despreciable, se debe cuantificar.

Tenemos en general dos tipos de componentes de incertidumbre:

Tipo A: están relacionadas con la dispersión estadística de las sucesivas medidas. La distribución puede caracterizarse por desviaciones típicas. La aleatoriedad juega un papel fundamental en este tipo de componentes. Aquí aparecen los conceptos de repetibilidad y reproducibilidad que veremos más adelante en otra publicación. Tiene que ver con la imposibilidad práctica real de realizar sucesivas mediciones bajo exactas condiciones: el operador, las condiciones ambientales, la interpretación del resultado.

Tipo B: son los obtenidos de la información adicional con la que contamos. Por ejemplo, una deriva, un coeficiente de variación de la magnitud con respecto a otra, el conocimiento de la clase o exactitud del instrumento, los lìmites conocidos, etc.


¿Cómo cuantificamos la incertidumbre?

En primer lugar, es importante aclarar que la manera correcta de expresar el resultado de una medición es siempre mediante un valor de medida (el obtenido o leído) acompañado de un valor de incertidumbre que englobe todas estas componentes.

Resultado de medida = Valor medido ± Incertidumbre de medida

La incertidumbre que se expresa es una combinación ponderada de todas las componentes de incertidumbre detectadas y expresadas numéricamente.


Pasos a seguir:

  1. Para cada tipo de medición que realicemos debemos identificar todas las fuentes posibles de incertidumbre.
  2. Luego debemos identificar si son del Tipo A o del Tipo B, para poder conocer su posterior tratamiento.
  3. A continuación, tenemos que expresar cuantitativamente dichas componentes en las mismas unidades de la magnitud que se está analizando para que puedan ser intercomparables. Aquí es donde se realiza el mayor trabajo, ya que debemos conocer la naturaleza de cada componente y su distribución estadística.
  4. Por último, se realiza una tabla en donde se encuentren enumeradas todas las fuentes de incertidumbre. A esto se lo conoce como balance de incertidumbres. De aquí se obtiene una combinación de todas las componentes conocida como incertidumbre combinada. A través de un factor de confianza, y convertida en incertidumbre expandida, es la que termina acompañando al valor de medida.

La importancia del GUM


Como es de suponer, existen infinidad de métodos y magnitudes a analizar. Sería imposible generalizar las componentes de incertidumbre y su análisis de una única manera. Sin embargo, hace ya unos años se decidió redactar una Guía para la Expresión de la Incertidumbre. Conocida popularmente por su abreviatura en inglés, el GUM es el documento por excelencia que nos guía en la manera de determinar las fuentes de incertidumbre y cómo tratarlas. Además de una base téorica estadística, cuenta con muchos ejemplos que pueden asemejarse a lo que estamos buscando y darnos una noción o una ayuda en la determinación de las fuentes que precisamos para nuestro análisis. Este documento es de libre acceso y, así como el VIM, tiene como función primordial la estandarización y la difusión de buenas prácticas metrológicas. Puede ser descargado libremente en español en el siguiente link del CEM (Centro Español de Metrología):



En futuras publicaciones veremos ejemplos de aplicación del cálculo de incertidumbres en diversos instrumentos de uso habitual.

viernes, 25 de septiembre de 2015

Metrología en América

Uno de los grandes objetivos de los organismos de Metrología es asegurar la trazabilidad de las mediciones realizadas al Sistema Internacional de Unidades. 

Recordando la pirámide de trazabilidad metrológica tenemos en la cima al Sistema Internacional de Unidades (SI) representado por el Bureau Internacional de Pesas y Medidas (BIPM). Por debajo de él se encuentran los organismos nacionales de metrología. Cada país cuenta con un organismo encargado de regular la actividad metrológica. Más abajo se encuentran los laboratorios secundarios. Generalmente estos están agrupados en redes supervisadas por los organismos nacionales. También en este nivel se encuentran los organismos de Metrología Legal. En los dos niveles inferiores, bases de la pirámide, se encuentran los usuarios. El usuario puede tener, o no, su propio laboratorio de calibración y/o ensayos. 

La Organización de los Estados Americanos (OEA) propuso la formación del Sistema Interamericano de Metrología (SIM). Esta organización agrupa a los Organismos Nacionales de Metrología del continente americano, subdivididos a su vez en regiones:

  • ANDIMET (Andes)
  • CAMET (Centroamérica)
  • CARIMET (Caribe)
  • NORAMET (Norteamérica)
  • SURAMET (Sudamérica)

A continuación se detalla la conformación de cada subregión. Haciendo click en el nombre de cada país se puede acceder a la web oficial (de estar disponible) del organismo nacional correspondiente.

ANDIMET

Agrupa a los organismos nacionales de Bolivia, Colombia, Ecuador, Perú y Venezuela. Coordinado por Bolivia.

CAMET

Conformado por Belice, Costa Rica, El Salvador, Guatemala, Honduras, Nicaragua y Panamá. Coordinado por Panamá.

CARIMET

Conformado por Antigua y Barbuda, Bahamas, Barbados, Dominica, Granada, Guyana, Jamaica, Haití, República Dominicana, San Cristóbal y Nevis, San Vicente y las Granadinas, Santa Lucia, Surinam y Trinidad & Tobago. Coordinado por Trinidad & Tobago.

NORAMET

Conformado por CanadáMéxico y Estados Unidos. Coordinado por Canadá.







SURAMET

Conformado por Argentina, Brasil, Chile, Paraguay y Uruguay. Coordinado por Chile.
 SURAMET


•• Entrada destacada ••

Incertidumbre de medición ¿de qué se trata realmente?

Por Raúl Sejzer La incertidumbre es quizás el concepto más importante y, a la vez, el más dificil de asimilar e interpretar de la Metrol...