Sección vertical de la balanza de Cavendish |
En 1798, el físico-químico inglés Henry
Cavendish, fue el primero en medir la constante de gravitación universal (G) de Newton utilizando
un método espectacularmente ingenioso, que apenas ha sido mejorado desde
entonces. El método fue ideado por John Michell, quien murió sin conseguir
llevarlo a cabo, siendo Cavendish quien realizó el experimento. En realidad, su
objetivo no era medir la constante, sino la masa de la Tierra, pero el valor de
la constante podía deducirse del resultado.
El instrumento de Cavendish era una balanza de torsión de la que
pendían dos bolas idénticas de plomo. Junto a estas bolas, una a un lado y otra
al otro, se colgaban otras dos esferas de plomo mucho más grandes, de 175 kg
cada una, que al atraer a las dos primeras producían una ligera torsión de la
balanza, que Cavendish pudo observar mediante un pequeño telescopio situado
fuera del recinto, para evitar interferencias del observador. Así detectó un
desplazamiento de sólo 4 mm, que midió con una precisión de ¼ mm. Esto le
permitió calcular que la densidad de la Tierra era 5,448 veces mayor que la del
agua, de donde se pudo deducir la masa de la Tierra y el valor de G:
G=6,674×10-11N.m2/kg2
Este es el valor oficial, que se conoce con
una exactitud
bastante baja (1 en 10.000), en comparación con otras constantes universales.
El experimento de Cavendish se sigue
utilizando para medir la constante de gravitación universal. Recientemente, dos
experimentos realizados en China por un equipo dirigido por Luo Jun,
utilizando bolas de acero y cámaras de vacío para prevenir interferencias, ha
obtenido los siguientes resultados:
G=6,674184×10-11 ±11,64 ppm
G=6,674484×10-11 ±11,61 ppm
donde ppm significa partes por millón. Una
reseña en español puede
verse aquí.
La incertidumbre de los resultados de estos dos
experimentos es la más baja que se ha obtenido hasta ahora al medir G.
El valor aceptado hasta entonces para G, basado
en los experimentos realizados durante los últimos 40 años, es este:
G=6,67408×10-11 ±47 ppm
Los dos valores obtenidos en los nuevos
experimentos se encuentran, por tanto, ligeramente por encima del valor
generalmente admitido, pero tienen una incertidumbre mucho más pequeña (unas 4
veces menor). La mínima incertidumbre que se había obtenido anteriormente entre
todas las medidas realizadas (ha habido muchas) fue de 13,7 ppm, sólo un poco
peor que la de los nuevos experimentos. En comparación, la incertidumbre del
experimento de Cavendish fue del 1%.
Para entender lo que significan estos
números, debemos recordar que en las mediciones se utilizan tres conceptos
estadísticos diferentes:
· Exactitud: distancia entre el valor medido y el valor real.
· Precisión: capacidad de un instrumento de dar los mismos resultados en
mediciones diferentes.
· Incertidumbre: Si se aplica a un instrumento, se habla de incertidumbre de calibración. Si se aplica a una medida concreta, mide la
dispersión de los valores obtenidos al realizar varias veces el mismo
experimento.
Exactitud y precisión de una medida |
Obsérvese que las medidas pueden ser muy precisas,
pero poco exactas, y viceversa. Eso explica que las distintas
mediciones realizadas de esta constante, incluidas las dos últimas realizadas
por el equipo chino, no cuadren entre sí, en el sentido de que, si las
convertimos en intervalos, estos no se superponen. Veámoslo. Las dos medidas
anteriores, convertidas a intervalos de incertidumbre, serían:
(6,674106, 6,674262) y (6,674407, 6,674561)
Se verá que ambos intervalos quedan por encima del valor comúnmente admitido,
aunque uno de ellos (el más pequeño) está totalmente incluido en el intervalo
más probable considerado anteriormente, mientras el otro queda fuera y por
encima de dicho intervalo.
Un
artículo de Science News presenta un gráfico muy indicativo que permite
comparar los resultados (exactitud e incertidumbre) de los dos nuevos
experimentos con los realizados anteriormente. Puede verse que la dispersión de
los resultados es bastante grande, y que los intervalos obtenidos pocas veces
se superponen.
Todo esto significa que hay que seguir haciendo experimentos.
Estupendo artículo (como todos los de don Manuel) que nos recuerda algunos conceptos esenciales de las medidas de fenómenos experimentales. Hay un concepto más, que también muestra lo engañosa que puede ser una primera impresión sobre un instrumento. Cuando yo estudiaba la carrera (soy ingeniero de telecomunicación) tuve un profesor de laboratorio que nos advertía sobre algunos instrumentos digitales de medidas eléctricas que, por aquél entonces ya lejano, comenzaban a llegar al mercado, y que los estudiantes, por su novedad, juzgábamos muy superiores a los antiguos analógicos. ¿Cómo iba a ser peor un flamante polímetro digital con 4 cifras significativas que un viejo voltímetro de aguja? Pues este profesor afirmaba que una cosa es la resolución de un aparato, y otra muy distinta su precisión. Y así era, muchos de estos equipos digitales, especialmente los de gama baja, comparados a un instrumento analógico de calidad bien calibrado , tenían un error medio superior a una, y a veces dos de sus cifras decimales menos significativas. Gran lección sobre las apariencias en general, especialmente cuando hablamos de nuevas tecnologías.
ResponderEliminarBuenas!
ResponderEliminarSería genial que en algún artículo próximo hablase sobre la macro y la micro evolución y la controversia en cuanto a estos dos términos!
Muchas gracias!