Por Raúl Sejzer
Desde hace décadas, la determinación de intervalos de calibración óptimos ha sido motivo de discusión entre metrólogos, usuarios y fabricantes de instrumentos. Las primeras aproximaciones buscaban la generalización, pero quedó ampliamente demostrado que no era el camino correcto. Hoy coexisten diferentes corrientes, con un cúmulo de métodos cuya selección depende fuertemente de la aplicación puntual. Se cuenta en la actualidad con métodos basados en datos estadísticos, los cuales exigen que exista información histórica del instrumento a analizar, métodos algorítmicos que pueden utilizarse con una confiabilidad considerable sin necesidad de poseer datos de calibraciones previas, y otros métodos más sencillos basados, por ejemplo, en la actualización dinámica de los intervalos según los resultados de la última calibración.
Enumeraremos las diferentes alternativas disponibles actualmente, reconocidas científicamente a nivel mundial, permitiendo destacar las características distintivas de cada tipo. Se obviarán los casos en los que existan exigencias de terceros que tengan incidencia sobre la decisión. En particular, no se tendrán en cuenta aplicaciones de metrología legal.
1. INTRODUCCIÓN
Todo instrumento de medición, sea cual fuere su ubicación dentro de la pirámide de trazabilidad metrológica, debería ser calibrado periódicamente para garantizar que su funcionamiento se encuentre dentro de lo especificado y de lo esperado para el uso previsto. En la actualidad, la mayoría de las normas internacionales de gestión de la calidad, la seguridad y el medio ambiente exigen que los equipos utilizados en medición y monitoreo de las variables físicas y químicas claves se encuentren calibrados, con una frecuencia de calibración determinada, siempre que sea aplicable. La principal dificultad se encuentra en la determinación del intervalo adecuado entre calibraciones. La elección del intervalo es siempre una relación de compromiso entre el costo de la calibración y el riesgo de que el instrumento salga de tolerancia antes de la próxima calibración.
Existe para cada instrumento un factor de incertidumbre que hace inevitable la aparición potencial de resultados fuera de la tolerancia definida (OOT: Out of Tolerance).
En todos los casos, se deben utilizar dos criterios dependiendo de la etapa en la que se encuentre el análisis. En primer lugar, se debe determinar el intervalo de calibración inicial. Luego, es necesario seleccionar un método específico con el objeto de reevaluar los intervalos subsiguientes de manera sistemática.
2. DETERMINACIÓN DEL INTERVALO INICIAL
Para determinar el intervalo de calibración adecuado, por primera vez, para un instrumento en particular se deben tener algunas consideraciones importantes entre las que se destacan: cuál es el uso previsto y la criticidad de sus resultados, qué recomiendan el fabricante y los organismos reconocidos y qué información disponible existe sobre equipamiento de similares prestaciones.
Es muy habitual encontrar recomendaciones iniciales por parte de los fabricantes sobre períodos de doce meses sin mayores argumentos. Esto deriva, en realidad, de que existen reglamentaciones legales que los fabricantes de dispositivos electrónicos deben cumplir, entre lo que se encuentra la exigencia de que todo equipo nuevo (incluidos los instrumentos electrónicos) debe encontrarse dentro de especificaciones al menos en su primer año de uso. Es por esto que los ingenieros de diseño cumplen con lo mínimo indispensable para conseguir esta especificación [1].
3. DETERMINACIÓN DE INTERVALOS DE CALIBRACIÓN MEDIANTE MÉTODOS RECOMENDADOS
En función de las diferentes necesidades surgidas fueron desarrollándose y perfeccionándose una serie de métodos para la determinación de los intervalos de calibración adecuados para cada aplicación. Dos documentos fundamentales han sentado las bases de esta búsqueda permanente. Por un lado, la Organización Internacional de Metrología Legal (OIML) lanzó en 1984 su guía OIML D 10, que recién en el año 2005 sería reconocida por ILAC (International Laboratory Accreditation Cooperation). Ambas organizaciones editarían la guía ILAC-G24 / OIML D 10 cuya última versión disponible data de 2007. El propósito de este documento es guiar a los laboratorios en la determinación de los intervalos de calibración correctos, identificando los factores principales que deben ser tenidos en cuenta [2]. Esta guía sugiere cinco métodos que pueden ser seleccionados en función de la necesidad:
- Método escalera (Staircase): sencillo y versátil. Cada intervalo se incrementa o decrementa dependiendo del comportamiento del instrumento en el intervalo anterior.
- Gráfica de control (Control chart): se monitorean puntos estratégicos y se los compara en cada calibración, para determinar el intervalo de calibración óptimo según los datos obtenidos de deriva y dispersión de los valores.
- Tiempo de uso (“In-time” use): se lleva un control de las horas de uso reales del instrumento mediante la vinculación con un cronómetro.
- Caja negra (Black box testing): se utiliza en instrumentos complejos. Se realiza un control y seguimiento de parámetros fundamentales. Cuando se encuentran fuera de especificación, se calibra nuevamente el instrumento.
- Aproximación estadística (Statistical approaches): se utilizan herramientas estadísticas complejas, generalmente a través del uso de software específico. Poseen un alto grado de efectividad.
Por otro lado, en el año 1979 la National Conference of Standards Laboratories (actual NCSL International) lanzó su guía de prácticas recomendadas denominada RP-1. Desde 1996 se encuentra vigente su tercera edición y se trabaja en una cuarta edición [3]. En la guía RP-1 se encuentran descritas metodologías ampliamente estudiadas y aplicadas, las cuales pueden ser clasificadas en dos clases: métodos estadísticos y métodos algorítmicos.
Los métodos estadísticos suelen ser efectivos, pero requieren de un grado de conocimiento considerable de herramientas estadísticas y de una cantidad de datos importante sobre la historia previa del instrumento. Esto los hace costosos y difíciles de implementar, en particular cuando existe poca o nula información histórica [4]. Los métodos algorítmicos, en cambio, suelen ser efectivos en relación costo-desempeño. Son sencillos de implementar y no requieren conocer el historial del instrumento, quizás el último resultado, pero no resultados más antiguos [5,6].
4. CONCLUSIÓN
Además de la correcta elección del intervalo inicial de calibración en función de datos brindados por el fabricante, referencias similares y el conocimiento del uso previsto, existen diferentes metodologías para la determinación de los intervalos de calibración posteriores. El método adecuado dependerá principalmente de los costos, la disponibilidad de datos y herramientas y la capacidad de los metrólogos en resolver cálculos y estimaciones complejas.
En futuras publicaciones profundizaremos sobre estos métodos.
5. REFERENCIAS
[1] B. Soriano, V. Aranda, N. Gutiérrez, “Determinación de Intervalos de Calibración”, MetAs & Metrólogos Asociados, La Guía MetAS, octubre de 2004.
[2] ILAC-OIML, “ILAC-G24 / OIML D 10 – Guidelines for the determination of calibration intervals of measuring instruments” ILAC-OIML, 2007.
[3] NCSLI, “Recommended Practice RP-1 – Establishment and Adjustment of Calibration Intervals,” NCSL International 173.1 Committee, 2010.
[4] K. Chu, “A Practical Guide to Adjusting Calibration Intervals”, Kihomac Inc., NCSLI Workshop and Symposium, 2014.
[5] M. Kuster, G. Cenker, H. Castrup, “Calibration Interval Adjustment Methods: Quantitative Comparison and Optimization”, Measurement Science Conference Proceedings, Pasadena, CA, 2011.
[6] M. Kuster, G. Cenker, H. Castrup, “Calibration Interval Adjustment: The Effectiveness of Algorithmic Methods”, Proc. 2009 NCSLI Workshop and Symposium, San Antonio, TX, July 27-30.
Excelente recopilación Raúl... Saludos.
ResponderBorrarMuchas gracias José Luis. Un cordial saludo.
BorrarMuchas gracias, un saludo.
Borrar