sábado, 24 de octubre de 2015

Incertidumbre de medición ¿de qué se trata realmente?

Por Raúl Sejzer

La incertidumbre es quizás el concepto más importante y, a la vez, el más dificil de asimilar e interpretar de la Metrología. Exige un amplio conocimiento de la medición que se está realizando, los métodos, la magnitud que está siendo analizada y las magnitudes o fenómenos que influyen sobre la calidad de la medida.

Primero veamos la definición que nos brinda el VIM:
Incertidumbre de medida / Incertidumbre: Parámetro no negativo que caracteriza la dispersión de los valores atribuidos a un mensurando, a partir de la información que se utiliza.
¿A que se refiere realmente esta definición? La incertidumbre, dicho en otras palabras, es un parámetro que representa cuantitativamente la "duda" que tenemos sobre la medición realizada. Por una cuestión práctica contamos con información limitada de lo que estamos midiendo y de todas las fuentes que pueden influir en ella y en cómo interpretamos los datos obtenidos. Los valores obtenidos en una medición poseen una componente de duda, relacionada a cuán confiable es la medición que estamos realizando.

Recordemos que existe un concepto, algo abstracto de interpretar: el valor verdadero. El valor verdadero no es más que el valor real de la magnitud objeto de medición. Es un valor que nunca lograremos conocer realmente. Podemos acercarnos, acotarlo, pero no saber exactamente su valor. Cuando obtenemos el valor de una magnitud, a través de la medición, tenemos información incompleta de la misma. Además del valor obtenido, debemos tener información cuantitativa que nos indique la calidad de la medición. Aquí aparece el concepto de incertidumbre. La incertidumbre involucra todos los factores que afectan a la confiabilidad de la medida. La dispersión que menciona la definición del VIM corresponde a la variabilidad de los valores obtenidos en sucesivas medidas de una misma magnitud. Esta variabilidad proviene de que los métodos no son perfectos, o no estamos contemplando todos los factores que influyen en cómo obtengo los valores de medición y/o cómo los interpretamos y procesamos.

Imagen de Anja Heidsiek en Pixabay 

¿Lo vemos con un ejemplo?

La mejor forma de comprender de qué se trata es siempre a través de un ejemplo. Supongamos que deseamos medir la longitud de una pieza metálica con un calibre digital. Nuestro procedimiento nos exige tomar 5 medidas sucesivas de la pieza, retirando y volviendo a colocar el calibre. Supongamos, además, que se trata de una pieza perfecta de longitud 10 mm a 20 ºC y 1013 hPa de presión atmosférica.

Las sucesivas mediciones arrojaron los siguientes valores: 

10,01
10,00
10,02
9,99
10,01

¿Por qué razón existe esta variación? ¿A qué se debe que obtengamos distintos valores si la pieza es la misma y el instrumento es el mismo? Son muchos los factores que incluyen aquí. Algunas consideraciones importantes:

  • Dijimos que el valor verdadero de la longitud de la pieza es de 10 mm. Esto significa que la longitud es 10,00... e infinitos ceros en la parte decimal. Ahora bien, si nuestro calibre sólo nos muestra dos decimales (hasta la centésima de mm) ¿cómo sabemos que los decimales que no vemos son cero?. Aquí ya perdemos parte de la valiosa información. Aparece una de las fuentes más importantes de duda de nuestra medida, la incertidumbre por resolución.
  • Por otro lado, el hecho de retirar el calibre y volverlo a colocar entre sucesivas mediciones hace que no siempre lo coloquemos de igual manera, haciendo la misma fuerza, con el mismo ángulo de apoyo del calibre sobre las caras de la pieza, etc. Por más formación que posea el operario, no siempre logrará tomar la medida de la misma forma. 
  • Es bien conocido que la temperatura posee una influencia importante sobre la longitud. El valor verdadero de la longitud de 10mm es válido sólo a las temperaturas y presión atmosférica indicadas. Si, por ejemplo, la temperatura ambiente al realizar la medición es superior, la pieza se dilata y obtendremos una longitud mayor.
Esas son sólo algunas fuentes de incertidumbre, pero existen más. Es decir, cada tipo de medida (cada método) posee numerosas componentes de incertidumbre. Si su influencia es considerable, no despreciable, se debe cuantificar.

Tenemos en general dos tipos de componentes de incertidumbre:

Tipo A: están relacionadas con la dispersión estadística de las sucesivas medidas. La distribución puede caracterizarse por desviaciones típicas. La aleatoriedad juega un papel fundamental en este tipo de componentes. Aquí aparecen los conceptos de repetibilidad y reproducibilidad que veremos más adelante en otra publicación. Tiene que ver con la imposibilidad práctica real de realizar sucesivas mediciones bajo exactas condiciones: el operador, las condiciones ambientales, la interpretación del resultado.

Tipo B: son los obtenidos de la información adicional con la que contamos. Por ejemplo, una deriva, un coeficiente de variación de la magnitud con respecto a otra, el conocimiento de la clase o exactitud del instrumento, los lìmites conocidos, etc.


¿Cómo cuantificamos la incertidumbre?

En primer lugar, es importante aclarar que la manera correcta de expresar el resultado de una medición es siempre mediante un valor de medida (el obtenido o leído) acompañado de un valor de incertidumbre que englobe todas estas componentes.

Resultado de medida = Valor medido ± Incertidumbre de medida

La incertidumbre que se expresa es una combinación ponderada de todas las componentes de incertidumbre detectadas y expresadas numéricamente.


Pasos a seguir:

  1. Para cada tipo de medición que realicemos debemos identificar todas las fuentes posibles de incertidumbre.
  2. Luego debemos identificar si son del Tipo A o del Tipo B, para poder conocer su posterior tratamiento.
  3. A continuación, tenemos que expresar cuantitativamente dichas componentes en las mismas unidades de la magnitud que se está analizando para que puedan ser intercomparables. Aquí es donde se realiza el mayor trabajo, ya que debemos conocer la naturaleza de cada componente y su distribución estadística.
  4. Por último, se realiza una tabla en donde se encuentren enumeradas todas las fuentes de incertidumbre. A esto se lo conoce como balance de incertidumbres. De aquí se obtiene una combinación de todas las componentes conocida como incertidumbre combinada. A través de un factor de confianza, y convertida en incertidumbre expandida, es la que termina acompañando al valor de medida.

La importancia del GUM


Como es de suponer, existen infinidad de métodos y magnitudes a analizar. Sería imposible generalizar las componentes de incertidumbre y su análisis de una única manera. Sin embargo, hace ya unos años se decidió redactar una Guía para la Expresión de la Incertidumbre. Conocida popularmente por su abreviatura en inglés, el GUM es el documento por excelencia que nos guía en la manera de determinar las fuentes de incertidumbre y cómo tratarlas. Además de una base téorica estadística, cuenta con muchos ejemplos que pueden asemejarse a lo que estamos buscando y darnos una noción o una ayuda en la determinación de las fuentes que precisamos para nuestro análisis. Este documento es de libre acceso y, así como el VIM, tiene como función primordial la estandarización y la difusión de buenas prácticas metrológicas. Puede ser descargado libremente en español en el siguiente link del CEM (Centro Español de Metrología):



En futuras publicaciones veremos ejemplos de aplicación del cálculo de incertidumbres en diversos instrumentos de uso habitual.

•• Entrada destacada ••

Incertidumbre de medición ¿de qué se trata realmente?

Por Raúl Sejzer La incertidumbre es quizás el concepto más importante y, a la vez, el más dificil de asimilar e interpretar de la Metrol...