Karl Popper |
Como he dicho en otros artículos, citando a Popper, una teoría científica nunca puede considerarse completamente confirmada. O sea, nunca podremos estar absolutamente seguros de que sea verdad. Pero algunos intentan apoyarse en esto (y en la filosofía de Kant) para llegar a la conclusión de que no podemos saber nada sobre la realidad, que el conocimiento científico es relativo, y que la ciencia no se diferencia de otras actividades humanas, como las artes o la moda, de cuyas producciones no se puede decir que sean verdaderas o falsas.
Frente a esta postura, en un artículo publicado en 1990 en defensa del realismo, Martin Gardner escribió el siguiente párrafo, que en mi opinión no tiene desperdicio (la traducción es mía):
Martin Gardner |
Aunque todas las afirmaciones
científicas se pueden corregir, no se sigue que no se puedan ajustar a un intervalo
continuo de probabilidades, que van desde la casi certeza hasta la falsedad
casi segura. Nadie duda, por ejemplo, que la tierra tiene forma de bola, gira
alrededor del sol, rota alrededor de su eje, tiene campo magnético y hay una luna
que gira a su alrededor. Es casi seguro que el universo ha durado miles de
millones de años y que la vida en la tierra evolucionó durante millones de años
desde formas sencillas a formas más complejas. El origen del universo en un big
bang no es tan seguro. El modelo inflacionario del universo es aún menos seguro.
Etcétera. En la actualidad, la ciencia carece de técnicas para asignar a sus
afirmaciones valores de probabilidad precisos, o lo que Rudolf Carnap llamaba
"grados de confirmación". Eso no significa, sin embargo, que un científico
no pueda decir que la evolución está bien confirmada o que una tierra plana ha
sido fuertemente refutada.
En su libro de divulgación The modern universe, publicado en 1956, el
astrónomo británico Raymond A. Lyttleton afirmó que a cada teoría científica se
le puede asignar un valor de probabilidad, comprendido entre cero y uno, donde el
cero corresponde a ideas imposibles, y el uno a teorías totalmente confirmadas.
Sin embargo, añadió este aviso:
Nunca permitas que tu estimación de la probabilidad
de una teoría alcance los valores cero o uno.
Es decir: ninguna teoría debe
considerarse definitivamente comprobada (probabilidad igual a uno) ni definitivamente
excluida (probabilidad igual a cero). Eso sí, al estimar su probabilidad podemos
aproximarnos al cero y al uno tanto como queramos. Es lo mismo que dice Gardner
al final del párrafo citado. A esta consideración yo añadiría esta:
La probabilidad de una teoría, si no tenemos
ninguna razón para suponerla verdadera o falsa, debe aproximarse a 0,5.
Como expliqué en otro
artículo, una teoría científica debe ser ajustada a lo que ya
sabemos, pero no se puede considerar validada mientras no realice
una o más predicciones acertadas sorprendentes.
Por otra parte, aunque sigan teniendo utilidad en ciertos campos de aplicación,
no consideraré aquí las teorías científicas refutadas por alguna predicción sorprendente desacertada, como la Mecánica
de Newton, que fue refutada por la predicción errónea de la existencia del
planeta Vulcano. Teniendo esto en cuenta, yo propongo la siguiente escala de
probabilidad para las teorías científicas:
- Teorías casi seguras: su probabilidad estará por encima de 0,9, sin llegar a 1,0. Entre estas
teorías citaré las afirmaciones de la primera mitad del párrafo de
Gardner; y que las especies de los seres vivos evolucionan y la historia
de la vida fue (y es) un proceso cuyo desarrollo ha quedado reflejado en el
árbol de la vida.
- Teorías validadas y no refutadas: su probabilidad está entre 0,8 y 0,9. Entre ellas citaré la teoría
del Big Bang, la Relatividad General, la Mecánica Cuántica y el modelo estándar
de física de partículas.
- Teorías no validadas, pero sí ajustadas a lo que
sabemos: su probabilidad está comprendida entre 0,6 y 0,8.
Entre ellas citaré la teoría de la inflación cósmica, el modelo
cosmológico estándar con sus apéndices sobre la existencia de materia y
energía oscuras, y el origen antropogénico del cambio climático.
- Teorías sobre las que no sabemos nada, ni a favor,
ni en contra: su probabilidad está entre 0,4 y 0,6. Citaré la
existencia de inteligencias extraterrestres, la posibilidad de construir
la inteligencia artificial fuerte, o las diversas teorías de los
multiversos. Algunas de estas teorías quizá podrían llegar a confirmarse,
otras probablemente están para siempre fuera de nuestro alcance.
- Teorías probablemente erróneas: su probabilidad es inferior a 0,4. Entre ellas citaré la posibilidad
de viajar en el tiempo y todas las seudociencias, aunque entre estas las hay
de muchos tipos: algunas se aproximan a una probabilidad de 0,5, y si la
superasen podrían llegar a ser científicas. Otras (como la Tierra plana,
la Tierra hueca y la teoría de Velikovsky) tienen una probabilidad muy
próxima a cero.
Sheldon Glashow |
Termino
con una cita de Sheldon Glashow, Premio Nobel de Física, que se publicó en 1989
en el New York Times y que aparece en el artículo de Martin Gardner
citado:
Creemos que es
posible conocer el mundo, que existen reglas simples que gobiernan el comportamiento
de la materia y la evolución del universo. Afirmamos que existen verdades
eternas, objetivas, extrahistóricas, socialmente neutras, externas y
universales y que el conjunto de estas verdades es lo que llamamos ciencia
física. Se pueden descubrir leyes naturales universales, invariables,
inviolables, sin género y verificables. Pueden ser descubiertas por hombres, por
mujeres, o por colaboraciones mixtas… Cualquier extraterrestre inteligente en
cualquier lugar [del universo] habría utilizado el mismo sistema lógico para
explicar la estructura de los protones y la naturaleza de las supermovas.
Esta cita es una declaración de fe
en la existencia real del mundo y su inteligibilidad, en contra del relativismo
científico.
Hace un par de meses asistí a una conferencia de Ramón López de Mántaras donde distinguía entre Inteligencia Artificial General e Inteligencia Artificial Fuerte. La IA general es la que es capaz de resolver cualquier tipo de problemas, al contrario que la IA específica, que solo sabe resolver algunos. Una IA que juega al ajedrez pero no puede invertir en bolsa es específica. Si puede hacer ambas cosas, y muchas otras, como escribir noticias de periódico, diagnosticar una enfermedad, etc., entonces es general.
ResponderEliminarEn cambio, la IA Fuerte sería la que verdaderamente es equiparable a la humana, en tanto que autoconsciente, sensible, capaz de juicio moral, etc.
Me pareció una distinción interesante (hasta ese momento yo las habría equiparado), pero ahora tengo mis dudas. Porque una IA general, para ser verdaderamente general, tendría que ser capaz de reconocer los problemas que hay que resolver, reconocerlos como problemas. Es el clásico "¿Y a mí qué? Not my business!"
Por eso ahora pienso que esta capacidad de reconocer problemas, que ni siquiera sabemos que existen, o pueden existir en el futuro, excede por completo las habilidades de un "solucionador de problemas", por muy general que sea. De modo que la la IA general debería ser descrita más bien como "multi-específica". Nunca será verdaderamente general, porque serlo equivaldría a ser IA fuerte.
Yo tampoco conocía esta distinción tripartita, pero sin haberlo pensado mucho tiendo a estar de acuerdo contigo. Por ejemplo, ChatGPT se aproxima algo a lo que Ramón llama IA general, porque habla de muchos temas, pero detrás no hay nada más que una red neuronal artificial típica, como las que tenemos desde hace 30 años. En el fondo, típica IA débil.
EliminarDentro de dos semanas publicaré en mi blog un artículo que describe cómo funciona ChatGPT.
Salio la noticia sobre porque hay algo en vez de nada. https://www.abc.es/ciencia/hallan-evidencia-clara-universo-lugar-20230601165834-nt.html#vca=compartirrrss&vso=abc&vmc=rrss&vli=fixed-twitter&ref=https://www.google.com/
ResponderEliminarBruno, el titular de esta noticia es absurdo. En primer lugar, la noticia no es nueva: hace ya mucho tiempo que se ha sugerido. En segundo lugar, no dice por qué hay algo en lugar de nada. Es una posible "explicación" de por qué hay materia y no antimateria, no es otra cosa. En tercer lugar, no es ni siquiera una teoría física, sino una pura especulación, como los multiversos.
EliminarLos titulares siempre tratan de ser lo más drásticos posibles, incluso cuando dicen estupideces (como este). Observe los subtítulos: en el primero dice "debió producirse". ¿Debió? ¿O sea, que no es seguro? Y el segundo es todavía peor: "El Big Bang pudo crear". Pudo. O quizá no pudo.
Mire, Bruno, cuando vea la palabra "puede" o cualquiera de sus variantes en cualquier anuncio supuestamente "científico" tírelo directamente a la papelera. Este artículo desacredita al ABC y a cualquier medio que se haga eco de él.
Interesante como siempre! Me llamó la atención la asignación de probabilidades a las teorías. En el fondo, pienso que la única manera en que eso pueda hacerse con sentido es mediante el enfoque estadístico bayesiano, ¿no? Al menos, son afirmaciones en las que no cabe hablar de frecuencia límite de un experimento. Y si es así, ¿serían subjetivas?
ResponderEliminarSí, por supuesto, todas estas asignaciones de probabilidad son subjetivas. De hecho, son mis opiniones personales. De todos modos, aunque de forma cualitativa, sí se puede decir que una teoría que ha sido validada por una o más predicciones acertadas sorprendentes tiene que tener más probabilidad de ser correcta que las que no lo han sido. Y la asignación a las teorías puramente especulativas de una probabilidad de 0,5 es mi manera de decir que lo mismo daría echar una moneda al aire para decidir si la teoría es correcta o no.
Eliminarhttps://www.muyinteresante.es/actualidad/60606.html que opinan sobre esta noticia de que lograron fotografiar un atomo
ResponderEliminarMuy interesante :-)
EliminarMe gusta más que hablar de probabilidades, hablar de la precisión de las predicciones. Creo que ninguna teoría que haya sido considerada seria se puede descartar completamente. Simplemente, se ha conseguido refinar el modelo. Ya he comentado en este blog el ejemplo del modelo de Ptolomeo del Universo. Ciertamente, el modelo heliocéntrico es más preciso, pero el de Ptolomeo permite predecir la situación aparente de los planetas con una precisión más que aceptable. Creo que hasta aquí llega la física. Un modelo es sustituido por otro mejor puesto que permite hacer predicciones más aproximadas a las medidas experimentales. Decir que el modelo heliocéntrico es más verdad que el de Ptolomeo es ya filosofía.
ResponderEliminarHablar de probabilidades en relación con la ciencia es una metáfora, pero es algo que todo el mundo entiende en nuestra época. En cuanto a la distinción entre dos teorías sucesivas (como los modelos de Ptolomeo y heliocéntrico, o las teorías de Newton y Einstein) es fácil hacerla. Si una teoría explica lo mismo que la otra y algo más (la paralaje estelar, el péndulo de Foucault; la precesión de la órbita de Mercurio o el corrimiento al rojo de la luz solar) esa teoría es más verdadera que la otra, y eso es ciencia, no filosofía.
EliminarInteresantísima clasificación e información que no he encontrado en ningún otro lugar, como de costumbre, D. Manuel. Enhorabuena por el artículo.
ResponderEliminarPor cierto, igual podría ser interesante cubrir un poco el tema OVNI, que últimamente está habiendo bastante revuelo con eso, con Garry Nolan en la SALT iConnections New York, el «whistleblower» del ejército gringo, las declaraciones de Michael Shellenberger, el grupo de estudio de OVNIs de la NASA, etc..
Perdón por ser extratemático y además algo extenso, jeje; pero, ¿quién sabe?: Igual en el tema OVNI subimos pronto de 0,6 en la escala de probabilidad que nos comentaba, jejeje (o tal vez no más nos valiera que no) —a mí no me parecen demasiado creíbles las informaciones recientes, aunque los testimonios militares anteriores de objetos pasando de 0 a varios Mach en escasos segundos, sin ruido ni emisión de gas y calor y con giros en ángulos casi rectos, o cosas así, dan qué pensar—.
Un cordial saludo.