1.- La medición es el proceso de cuantificar nuestra experiencia del mundo exterior.
El científico escocés del siglo XIX, Lord Kelvin, dijo alguna vez: “Cuando uno puede medir aquello de lo que está hablando y expresarlo en números, sabe algo acerca de ello; pero cuando no puede medirlo, cuando no puede expresarlo en números, su conocimiento es escaso e insatisfactorio: podrá ser un principio de conocimiento, pero escasamente ha avanzado su conocimiento a la etapa de la ciencia”.
Aunque ésta pueda parecer una afirmación un poco exagerada, sigue siendo cierto que las mediciones constituyen uno de los ingredientes básicos de la experimentación. No alcanzaremos un nivel satisfactorio de competencia en la experimentación sin un conocimiento de la naturaleza de la medición y lo que significa el enunciado de las mediciones.
Es obvio que el proceso de cuantificación casi invariablemente trae consigo la comparación con alguna cantidad de referencia (¿cuántos pasos mide de largo el patio?). De igual manera, es obvio que el buen orden en la sociedad requiere de un acuerdo extendido sobre la elección de cantidades de referencia.
El problema de esos patrones de medición, definidos por la legislación y sujetos a convenciones internacionales, es amplio e importante.
Nadie que esté interesado seriamente en la medición puede ignorar el problema de definir y realizar patrones en su área de trabajo.
Sin embargo, exponer aquí ese importante tema nos distraería de nuestra preocupación principal, que es el proceso de medición. Por lo tanto, dejaremos el tema de los patrones sin ninguna otra mención posterior, excepto para hacer referencia a los textos que se indican en la bibliografía, y abordaremos el estudio del proceso mismo de medición. Empecemos en el nivel más básico con una medición aparentemente sencilla: tratemos de averiguar de qué tipo de proceso se trata y qué tipo de afirmación se puede hacer.
Si le doy a alguien el cuaderno en el que escribo esto y le pido que mida su longitud con una regla, la respuesta es invariable: la longitud del cuaderno es de 29.5 cm. Pero esa respuesta nos debe hacer pensar; ¿en realidad se nos pide que creamos que la longitud del cuaderno es de exactamente 29.50000000……cm? Seguro que no; es claro que esa afirmación está fuera de los límites de la credibilidad. Entonces, ¿cómo vamos a interpretar el resultado? Un momento de reflexión en presencia del cuaderno y de una regla nos hará darnos cuenta de que, lejos de determinar el valor “correcto” o “exacto”, lo único que podemos hacer en forma realista es acercarnos al borde del cuaderno sobre la escala, diciéndonos conforme avanzamos: “¿Puedo asegurar que el resultado es menos de 30 cm?, ¿menos de 29.9 cm?, menos de 29.8 cm?”. La respuesta a cada una de estas preguntas indudablemente será “Si”. Pero conforme avancemos sobre la escala, llegaremos a un punto en el cual ya no podremos dar con confianza la misma respuesta. En ese punto debemos detenernos, y de ese modo identificamos un extremo del intervalo que se convertirá en nuestro valor medido. De manera semejante podríamos acercarnos
2. MEDICIÓN E INCERTIDUMBRE
Al borde del cuaderno por abajo, preguntándonos a cada paso: “¿Estoy seguro de que el resultado es mayor de 29.0 cm? ¿29.1 cm?”, y así sucesivamente. Una vez más debemos de llegar a un valor en el cual nos tendremos que detener, porque ya no podremos decir con seguridad que el resultado es mayor.
Mediante la combinación de esos dos procesos identificamos un intervalo sobre la escala. Ese es el intervalo más pequeño que, hasta donde podemos estar seguros, contiene el valor deseado; sin embargo, no sabemos en qué punto del intervalo está ese valor. Esta es la única consecuencia realista del proceso de medición. No podemos esperar resultados exactos y tendremos que contentarnos con medidas que toman la forma de intervalos. Este ejemplo no sólo ilustra la naturaleza esencial del proceso de medición sino que también nos proporciona una guía para hacer las mediciones mismas. El proceso de aproximarse al valor que buscamos acotándolo por ambos lados nos recuerda la necesidad de dar el resultado como un intervalo, y también hace más fácil identificar los extremos del mismo.
Lo que resulta al final de nuestra discusión es muy importante. Cuando hagamos mediciones e informemos de sus resultados debemos tener siempre en cuenta este punto clave y fundamental:
Las medidas no son simple números exactos, sino que consisten en intervalos, dentro de los cuales tenemos confianza de que se encuentra el valor esperado.
El acto de la medición requiere que determinemos tanto la localización como el ancho de ese intervalo, y lo hacemos utilizando con cuidado la percepción visual cada vez que hacemos una medición.
No existen reglas para determinar el tamaño del intervalo, porque dependerá de muchos factores del proceso de medición.
El tipo de medición, la figura de la escala, nuestra agudeza visual, las condiciones de iluminación, todas tomarán parte en determinar la anchura del intervalo de medición.
El ancho, por lo tanto, debe determinarse explícitamente cada vez que se haga una medición. Por ejemplo, es un error común creer que, cuando se hace una medición usando una escala graduada, el “error de lectura” es automáticamente la mitad de la división de la escala más pequeña.
Esta es una simplificación excesiva y errónea de la situación.
Una escala con divisiones muy finas que se use para medir un objeto con bordes mal definidos puede dar un intervalo de medición más grande que varias de las divisiones más pequeñas; por otra parte, un objeto bien definido con buenas condiciones visuales puede permitir la identificación de un intervalo de medición mucho menor que la división más pequeña de la escala. Cada situación debe evaluarse en forma individual.
3. MEDICIÓN E INCERTIDUMBRE PRESENTACIÓN DIGITAL Y REDONDEO
Hay otros aspectos que también pueden confundir el problema. Considere, por ejemplo, un instrumento que da una lectura digital. Si un voltímetro digital indica que cierta diferencia de potencial es de 15.4 V, ¿quiere eso decir que el valor es exactamente de 15.40000…? Por supuesto que no, pero, ¿qué significa? Eso depende de las circunstancias.
Si el instrumento se fabrica de manera que lea 15.4 V porque el valor real es más cercano a 15.4 de lo que es 15.3 o 15.5, entonces lo que significa es: esta lectura está entre 15.35 y 15.45. Por otra parte, se puede hacer un reloj digital de manera que cambie su indicación de 09.00 a 09.01 exactamente a las 9.01.
Entonces, si vemos que marca las 09.00, sabemos que la hora está entre las 9.00 y las 9.01; ésta es una interpretación un poco diferente de la que es adecuada para el voltímetro digital.
De nuevo, cada situación debe juzgarse por sí misma. Estos dos ejemplos de representación digital ilustran un concepto más general: la inexactitud inherente al proceso de “redondear”. Aun cuando no surja una inexactitud de la capacidad limitada para hacer mediciones, el simple enunciado de una cantidad numérica puede contener inexactitudes.
Consideremos la afirmación: Phi = 3.14 Todos sabemos que no es así, porque podemos recordar, al menos, algunas de las cifras siguientes: 3.14159…; entonces, ¿qué queremos decir cuando citamos como 3.14? Sólo puede significar que tiene un valor más cercano a 3.14 de lo que es a 3.13 o 3.15. Por lo tanto, nuestra afirmación es que "Phi" está entre 3.135 y 3.145. Este margen de posibilidad representa lo que algunas veces se conoce como “el error de redondeo”.
Esos errores pueden ser pequeños e irrelevantes, o pueden volverse significativos. Por ejemplo, en un cálculo largo, hay la posibilidad de que los errores de redondeo se acumulen, y resulta más sensato, especialmente en esta época de gran disponibilidad de calculadoras, llevar el cálculo con más cifras de las que se podría pensar que son necesarias. Un error semejante de redondeo puede aparecer en enunciados sobre mediciones.
Algunas veces oímos decir que alguien ha realizado una medición en una escala que “se aproximó al milímetro”, o alguna otra frase parecida. Esa no es una manera correcta de citar una medida, ya que hace confuso el valor real del intervalo de la misma.
Sin embargo, nos encontramos con tales afirmaciones y, si nos vemos obligados a tratar con medidas representadas en esa forma, sólo podemos suponer que la división de la escala que se cita representa algún tipo de valor mínimo del tamaño del intervalo de medición.
4. MEDICIÓN E INCERTIDUMBRE INCERTIDUMBRE ABSOLUTA Y RELATIVA
Cualquiera que sea el medio por el que hayamos hecho una medición, el resultado final deberá ser un intervalo que representa, hasta donde nuestra capacidad lo garantice, los límites dentro de los que se encuentra el valor deseado.
En el ejemplo que usamos al principio, el experimentador únicamente puede ser capaz de afirmar con seguridad que la longitud del cuaderno está entre 29.4 y 29.6 cm. Aunque el único resultado significativo de un proceso de medición consiste en un intervalo o segmento como ése, con frecuencia es deseable, para propósitos de descripción o de cálculo posterior, enunciar de otra forma el valor citado. Tomamos el intervalo de 29.4 a 29.6 y lo renombramos (29.5 ± 0.1) cm.
Aunque obviamente no es más que una expresión del intervalo original con el nombre cambiado, esa nueva forma tiene ciertas ventajas. Nos da un valor central, de 29.5, que podemos utilizar en cálculos posteriores.
También nos da otro valor, ± 0.1, que se conoce como “la incertidumbre” de la medida, con el que podemos juzgar la calidad del proceso de medición y puede usarse en cálculos separados de incertidumbres. Una desventaja de esta forma de expresarlo es que se podría citar únicamente el valor central de 29.5.
A menos que recordemos claramente que sólo la cantidad completa (29.5 ± 0.1) sirve como una expresión correcta del resultado, y podemos ser desordenados al hacer mediciones o reportes sobre ellas, olvidando la presencia esencial de la incertidumbre.
Todos deberíamos convertir en una práctica invariable asociar un valor de incertidumbre con una lectura, tanto al momento de hacer la medición como después de este proceso, siempre que se cite su valor o se utilice para cálculos posteriores. Como la cifra de ± 0.1 cm representa la magnitud o el intervalo en que la lectura de 29.5 es incierta, a menudo se le llama la “incertidumbre absoluta” de la medida, y usaremos con consistencia esta terminología. Además, otros aspectos pronto se vuelven importantes. ¿Cuán significativa es una incertidumbre de ± 0.1 cm? Cuando medimos la longitud de un cuaderno, es significativa hasta cierto punto.
Si estamos midiendo la distancia entre dos ciudades, una incertidumbre de ± 0.1 cm es probable que sea completamente insignificante. Por otra parte, si estamos midiendo el tamaño de una bacteria microscópica, una incertidumbre de ± 0.1 cm haría que la medición careciera de sentido. Por esta razón, con frecuencia es deseable comparar la cifra de incertidumbre con el valor de la medición misma; haciéndolo así se puede evaluar en forma realista cuán significativa es la incertidumbre.
Definimos la razón: 𝑖𝑛𝑐𝑒𝑟𝑡𝑖𝑑𝑢𝑚𝑏𝑟𝑒 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑎 = 𝑖𝑛𝑐𝑒𝑟𝑡𝑖𝑑𝑢𝑚𝑏𝑟𝑒 𝑎𝑏𝑠𝑜𝑙𝑢𝑡𝑎 𝑣𝑎𝑙𝑜𝑟 𝑚𝑒𝑑𝑖𝑑𝑜 En el caso de nuestro ejemplo: 𝑖𝑛𝑐𝑒𝑟𝑡𝑖𝑑𝑢𝑚𝑏𝑟𝑒 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑎 = ± 0.1 29.5 = ±0.003
Esta incertidumbre relativa con frecuencia se cita como un porcentaje, de modo que, en este caso, la incertidumbre relativa sería de ± 0.3%. Esa cantidad nos da un sentido mucho mejor de la calidad de la lectura, y a menudo la llamamos la “precisión” de la medida.
5. MEDICIÓN E INCERTIDUMBRE
Incertidumbre absoluta tiene las mismas dimensiones y unidades que la medida básica (29.5 cm es incierto en 0.1 cm), en tanto que la incertidumbre relativa, por ser un cociente, no tiene dimensiones o unidades, y es un número puro.
ERROR SISTEMÁTICO
El tipo de incertidumbre que hemos considerado surge de una insuficiencia que ocurre naturalmente en el proceso de medición. Hay un tipo de error diferente que puede aparecer cuando algo afecta todas las lecturas de una serie en forma igual o consistente. Por ejemplo, un voltímetro o un tornillo micrométrico pueden tener mal ajuste del cero, una regla de madera puede haberse encogido, una persona puede apretar sistemáticamente el botón de un cronómetro 1/10 de segundo después del suceso, y así por el estilo.
Esos errores se llaman “errores sistemáticos”, de los cuales una subclase es la de los “errores de calibración”.
Como esos errores sistemáticos no son visibles de inmediato cuando se hace una medición, es necesario estar alerta y recordar en todo momento la posibilidad de que se presenten. Por ejemplo, los ceros de las escalas deben verificarse automáticamente cada vez que se use un instrumento.
Aunque puede ser más difícil verificar su calibración, la exactitud de los medidores eléctricos, cronómetros, termómetros y otros instrumentos no debe darse por buena y debe verificarse siempre que sea posible. La presencia de una pantalla de lectura digital con visibilidad precisa, con cuatro o cinco cifras supuestamente significativas, tampoco debe tomarse como prueba de precisión y ausencia de error sistemático en un instrumento. La mayor parte de un lote de cronómetros electrónicos que adquirimos en nuestro laboratorio para usarlos en la docencia, que supuestamente podían medir intervalos de tiempo con precisión de milisegundos, resultó tener errores de calibración hasta de un 14%.
No se deje engañar; vea todos los instrumentos de medición con desconfianza y verifique su calibración siempre que sea posible.
BIBLIOGRAFÍA BAIRD, D. C. “EXPERIMENTACIÓN.
Una introducción a la teoría de mediciones y al diseño de experimentos”. Segunda Edición, Prentice-Hall Hispanoamericana, S.A. México, 1991. Capítulo 2, paginas 8-13.