Gotfried Wilhelm von Leibniz |
Hace dos artículos mencioné que
la mejor aproximación fraccionaria sencilla del valor de p es 355/113
= 3,14159292..., que fue descubierta en Occidente durante el siglo XVI. A
partir de ahí se obtuvieron otras aproximaciones mejores, pero ya no
en forma de fracción, sino de serie. Se conocen varias series infinitas de
términos cuya suma es p. Por lo tanto, basta con sumar un número
suficientemente grande de términos para obtener tantas cifras de p como
queramos, siempre que tengamos tiempo de hacer las sumas. El primero en
proponer una de esas series fue el matemático francés François Vieta. Como su
serie era muy complicada, damos aquí la que propuso en 1673 el matemático y
filósofo alemán Gotfried Wilhelm von Leibniz, que es mucho más conocida:
Cuantos más términos sumemos de
esta serie, más nos aproximaremos al valor de p. La tabla siguiente
muestra los avances realizados a lo largo del tiempo en el cálculo de sus
aproximaciones sucesivas, utilizando series, fórmulas o procedimientos muy
variados.
Año
|
Autor
|
Número de cifras de p
|
1593
|
Vieta
|
17
|
1615
|
Ludolf von Ceulen
|
35
|
1717
|
Abraham Sharp
|
72
|
1844
|
Zacharias Dase
|
200
|
1873
|
William Shanks
|
707 (527)
|
Fijémonos en el cálculo de
William Shanks. Después de varios años calculando, obtuvo 707 cifras de p y
batió el récord de cifras obtenidas hasta entonces. Durante tres cuartos de
siglo, nadie pudo mejorarlo. En 1949 se utilizó
por primera vez un ordenador electrónico para calcular las cifras de p.
Entonces se descubrió que Shanks había cometido un error en la cifra número
528, que según él era un 5, pero que el ordenador –que no podía cometer errores–
descubrió que en realidad era un 4. A partir de ahí, todas las restantes cifras
calculadas por Shanks, hasta la 707, eran erróneas. Afortunadamente Shanks
nunca lo supo, porque había muerto en 1882, nueve años después de completar su
cálculo.
Ahora nos planteamos la siguiente cuestión:
Entre
1873 y 1949, ¿cuánto valió la cifra número 528 de p? ¿Valía 4 o 5?
Parece una pregunta estúpida, pero veamos:
- Si los
realistas tienen razón y las matemáticas existen fuera de la mente humana,
el valor de la cifra 528 de p fue siempre igual a 4. Shanks
simplemente cometió un error al calcularla.
- Si los
anti-realistas tienen razón, y el valor de p
no tiene sentido fuera de la mente humana, entonces la cifra número 528 de p no tenía valor antes de 1873, valía 5 entre 1873 y 1949, y pasó a valer 4 en 1949. Shanks no
cometió un error, simplemente asignó a p
un valor ligeramente diferente del que le damos ahora.
Sugiero al lector que decida cuál de las dos posibilidades
le parece más razonable.
Y a todo esto, ¿para qué queremos conocer tantas cifras del valor de p? ¿Es que las necesitamos para calcular el
diámetro de un círculo, conociendo su circunferencia? Veamos un ejemplo
práctico.
Supongamos que la Tierra fuese
una esfera perfecta, con una circunferencia igual a la del meridiano que pasa
por París: 40.000 km (esa fue la primera definición del metro). Si dividimos
40.000.000 entre el valor de p, obtendremos el diámetro de la Tierra, que viene a ser
igual a 12.732.395 metros. Si utilizamos la primera aproximación de Arquímedes
(22/7), obtenemos 12.727.272 metros, o sea, un error de poco más de 5
kilómetros.
Si utilizamos la mejor
aproximación fraccionaria sencilla (355/113) el error sería del orden de un
metro, y eso que esta fracción sólo proporciona seis cifras decimales
exactas de p.
Si utilizásemos el valor de p con 10 cifras decimales exactas (3,1415926536) el error
sería de unas 40 micras. Y si nos vamos a 20 cifras exactas (3,14159265358979323846)
obtendríamos el diámetro de la Tierra con un error del orden de algunos
femtómetros, que viene a ser el tamaño de las partículas elementales, mucho más
pequeño que un átomo. ¿Alguien cree que es preciso conocer el diámetro de la
Tierra con tanta aproximación? Entonces, ¿para qué
perder el tiempo calculando
más cifras de p?
Uno de los motivos por los que se han seguido calculando cifras de p ha sido para aplicar a esas cifras las pruebas
de aleatoriedad estadística. En efecto, las cifras de p parecen ser
aleatorias, pues cualquier secuencia de cifras que se nos ocurra probar aparece
entre las cifras de p un número de veces inversamente proporcional
a su longitud. Veamos algunos ejemplos:
- Si las cifras de p cumplen las condiciones de aleatoriedad, cada número de una cifra debería aparecer aproximadamente un 10% de las veces en cualquier secuencia de cifras de p arbitrariamente grande. Así, entre los primeros 1000 millones de cifras de p, cada cifra debería aparecer unos 100 millones de veces. Pues bien: 0 aparece 99.993.942 veces; 1, 99.997.334; 2, 100.002.410; 3, 99.986.911; 4, 100.011.958; 5, 99.998.885; 6, 100.010.387; 7, 99.996.061; 8, 100.001.839; y 9, 100.000.273. Como se ve, todos estos números son muy próximos a los 100 millones previstos.
- Lo mismo ocurre con las 100 secuencias posibles de dos cifras (de 00 a 99), cada una de las cuales aparece aproximadamente 10 millones de veces. También se cumplen las condiciones de aleatoriedad con las secuencias de tres cifras (de 000 a 999), cada una de las cuales aparece aproximadamente un millón de veces. Y así sucesivamente.
Andréi Kolmogórov |
Si las cifras de p cumplen las condiciones de aleatoriedad,
parecería razonable pensar que el valor de p debería ser aleatorio. Nada más lejos de la
realidad. Existe otra medida –la complejidad de Kolmogórov– que analiza la
aleatoriedad de un número comprobando hasta qué punto puede comprimirse. Pues
bien, el valor de p puede comprimirse enormemente, pues
cualquier algoritmo de los que se utilizan para calcular billones de cifras de p es mucho más
corto que el valor de p y lo representa exactamente (o lo
representaría si lo dejáramos ejecutarse un tiempo infinito). Así que en p tenemos la
contradicción aparente de un número
cuyas cifras parecen aleatorias, pero que en realidad no lo son, pues
su valor está perfectamente determinado.
Los informáticos también están interesados en
calcular muchas cifras de p para comparar
la eficiencia de distintos tipos de ordenadores. En efecto, es posible
compararlos midiendo el número de cifras exactas de p que pueden calcular en
un tiempo dado, utilizando el mismo algoritmo. También se pueden comparar distintos algoritmos, ejecutándolos sobre el
mismo ordenador. Finalmente, el cálculo de p se ha utilizado como
problema de prueba, para comprobar que los ordenadores nuevos funcionan
adecuadamente, sin cometer errores.
Hilo Matemáticas: Anterior Siguiente
Manuel Alfonseca
Efectivamente. Para evaluar grosso modo la potencia de cada nuevo PC que me llega empleo desde hace muchísimos años un programita para calcular un nº arbitrario de cifras decimales de Pi, SuperPi (hay versiones más modernas como HyperPi).
ResponderEliminarLa primera vez que lo ejecuté hará unos veinte años (en Windows NT) creo recordar que tardó más de un minuto en calcular un millón de cifras, no sé si uno y medio.
Mi último portátil, ya con dos años de antigüedad, las calcula en 9 segundos, aunque la principal ganancia respecto al anterior ha sido que es capaz de ejecutar varias instancias de la aplicación en paralelo en prácticamente el mismo tiempo.
Una idea que en su momento me pareció de lo más sugerente en la novela Contacto fue esa de encontrar un circulo rasterizado como ceros y unos escondido a partir de la posición 10^20 en la representación de Pi en base 11, como humorada del Creador.
ResponderEliminarYa me gustaría.
Interesante autor, felicito al autor del mismo (como siempre). No puedo decir mucho de esto la verdad. Había oído hablar de la teoría de Leibniz. Es un hombre, por el que siento gran cariño (no por temas científicos, ni matemáticos), sino porque creo, que a pesar de ser un hombre equivocado tenía buenas intenciones, y eso siempre hay que apreciarlo (de hecho Leibniz es uno de los defensores del ecumenismo), y un buen cristiano. Ignoraba que hubiera un francés llamado Vieta, que hubiera desarrollado antes esta teoría. Espero su siguiente artículo como siempre.
ResponderEliminar