Medidas de la Constante de Gravitación Universal



Sección vertical de la balanza de Cavendish
En 1798, el físico-químico inglés Henry Cavendish, fue el primero en medir la constante de gravitación universal (G) de Newton utilizando un método espectacularmente ingenioso, que apenas ha sido mejorado desde entonces. El método fue ideado por John Michell, quien murió sin conseguir llevarlo a cabo, siendo Cavendish quien realizó el experimento. En realidad, su objetivo no era medir la constante, sino la masa de la Tierra, pero el valor de la constante podía deducirse del resultado.
El instrumento de Cavendish era una balanza de torsión de la que pendían dos bolas idénticas de plomo. Junto a estas bolas, una a un lado y otra al otro, se colgaban otras dos esferas de plomo mucho más grandes, de 175 kg cada una, que al atraer a las dos primeras producían una ligera torsión de la balanza, que Cavendish pudo observar mediante un pequeño telescopio situado fuera del recinto, para evitar interferencias del observador. Así detectó un desplazamiento de sólo 4 mm, que midió con una precisión de ¼ mm. Esto le permitió calcular que la densidad de la Tierra era 5,448 veces mayor que la del agua, de donde se pudo deducir la masa de la Tierra y el valor de G:
G=6,674×10-11N.m2/kg2
Este es el valor oficial, que se conoce con una exactitud bastante baja (1 en 10.000), en comparación con otras constantes universales.

El experimento de Cavendish se sigue utilizando para medir la constante de gravitación universal. Recientemente, dos experimentos realizados en China por un equipo dirigido por Luo Jun, utilizando bolas de acero y cámaras de vacío para prevenir interferencias, ha obtenido los siguientes resultados:
G=6,674184×10-11 ±11,64 ppm
G=6,674484×10-11 ±11,61 ppm
donde ppm significa partes por millón. Una reseña en español puede verse aquí.
La incertidumbre de los resultados de estos dos experimentos es la más baja que se ha obtenido hasta ahora al medir G.
El valor aceptado hasta entonces para G, basado en los experimentos realizados durante los últimos 40 años, es este:
G=6,67408×10-11 ±47 ppm
Los dos valores obtenidos en los nuevos experimentos se encuentran, por tanto, ligeramente por encima del valor generalmente admitido, pero tienen una incertidumbre mucho más pequeña (unas 4 veces menor). La mínima incertidumbre que se había obtenido anteriormente entre todas las medidas realizadas (ha habido muchas) fue de 13,7 ppm, sólo un poco peor que la de los nuevos experimentos. En comparación, la incertidumbre del experimento de Cavendish fue del 1%.
Para entender lo que significan estos números, debemos recordar que en las mediciones se utilizan tres conceptos estadísticos diferentes:
·       Exactitud: distancia entre el valor medido y el valor real.
·    Precisión: capacidad de un instrumento de dar los mismos resultados en mediciones diferentes.
·     Incertidumbre: Si se aplica a un instrumento, se habla de incertidumbre de calibración. Si se aplica a una medida concreta, mide la dispersión de los valores obtenidos al realizar varias veces el mismo experimento.
Exactitud y precisión de una medida
Obsérvese que las medidas pueden ser muy precisas, pero poco exactas, y viceversa. Eso explica que las distintas mediciones realizadas de esta constante, incluidas las dos últimas realizadas por el equipo chino, no cuadren entre sí, en el sentido de que, si las convertimos en intervalos, estos no se superponen. Veámoslo. Las dos medidas anteriores, convertidas a intervalos de incertidumbre, serían:
(6,674106, 6,674262) y (6,674407, 6,674561)
Se verá que ambos intervalos quedan por encima del valor comúnmente admitido, aunque uno de ellos (el más pequeño) está totalmente incluido en el intervalo más probable considerado anteriormente, mientras el otro queda fuera y por encima de dicho intervalo.
Un artículo de Science News presenta un gráfico muy indicativo que permite comparar los resultados (exactitud e incertidumbre) de los dos nuevos experimentos con los realizados anteriormente. Puede verse que la dispersión de los resultados es bastante grande, y que los intervalos obtenidos pocas veces se superponen.
Todo esto significa que hay que seguir haciendo experimentos.


Hilo: Cosmología estándar Anterior Siguiente
Manuel Alfonseca

2 comentarios:

  1. Estupendo artículo (como todos los de don Manuel) que nos recuerda algunos conceptos esenciales de las medidas de fenómenos experimentales. Hay un concepto más, que también muestra lo engañosa que puede ser una primera impresión sobre un instrumento. Cuando yo estudiaba la carrera (soy ingeniero de telecomunicación) tuve un profesor de laboratorio que nos advertía sobre algunos instrumentos digitales de medidas eléctricas que, por aquél entonces ya lejano, comenzaban a llegar al mercado, y que los estudiantes, por su novedad, juzgábamos muy superiores a los antiguos analógicos. ¿Cómo iba a ser peor un flamante polímetro digital con 4 cifras significativas que un viejo voltímetro de aguja? Pues este profesor afirmaba que una cosa es la resolución de un aparato, y otra muy distinta su precisión. Y así era, muchos de estos equipos digitales, especialmente los de gama baja, comparados a un instrumento analógico de calidad bien calibrado , tenían un error medio superior a una, y a veces dos de sus cifras decimales menos significativas. Gran lección sobre las apariencias en general, especialmente cuando hablamos de nuevas tecnologías.

    ResponderEliminar
  2. Buenas!
    Sería genial que en algún artículo próximo hablase sobre la macro y la micro evolución y la controversia en cuanto a estos dos términos!

    Muchas gracias!

    ResponderEliminar