The same post in English
Como hemos visto en el artículo anterior, el libro Agentes libres (Free
agents) de
Kevin Mitchell trata sobre el origen de la consciencia humana
y del libre albedrío. En un breve epílogo, el libro aborda el tema de la
inteligencia artificial fuerte, la de verdad, la que aún no existe, y formula
algunas hipótesis sobre la posibilidad de que llegue a ser factible.
Hace hincapié en el hecho de que una de las ramas más activas de la investigación en IA, especialmente en los últimos años, es el campo de las redes neuronales artificiales, que ha conducido a avances como los grandes modelos de lenguaje (Large Language Models, LLM), y compara esas redes neuronales de nuestros programas con las que existen en nuestros cerebros y los de muchos animales más o menos semejantes a nosotros. Dice que estamos viendo avances impresionantes en campos como el reconocimiento de imágenes, la predicción de texto, el reconocimiento de voz y la traducción de idiomas, avances que se basan en el uso del aprendizaje profundo (deep learning), que se inspira lejanamente en la arquitectura de la corteza cerebral.
Estos sistemas responden espectacularmente a cierto
tipo de peticiones, pero fracasan, también espectacularmente, con otro tipo de
preguntas. Desde que apareció ChatGPT hace poco más de tres años, muchos de nosotros
hemos sido testigos de algunos de esos fracasos, de los que he mencionado
varios en este blog. Las preguntas que descomponen a estos sistemas son las que
presentan escenarios nuevos, que no están representados en
los datos de entrenamiento. En cambio, para los seres humanos, es fácil
responder a ese tipo de preguntas.
¿A qué se debe? Según Mitchell, a que nuestros
programas han sido diseñados de forma totalmente distinta a los seres vivos, y
están sometidos a limitaciones inherentes a ese diseño. Para acercarnos a la
inteligencia artificial general no deberíamos fijarnos en las aplicaciones
actuales, sino en la inteligencia de los animales, que son capaces de
enfrentarse a entornos nuevos e inciertos y aplican su experiencia
pasada para predecir el futuro; un futuro que incluye los
resultados de sus propias acciones. Esto es muy distinto a lo que hacen los LLM, que
sólo predicen la palabra siguiente.
Otra característica de la inteligencia natural es
que se obtiene con pocos recursos. Un ser vivo es pequeño; incluso una ballena azul
es pequeña, comparada con nuestros gigantescos centros de datos. Un ser vivo
gasta muy poca energía, muy lejos de los megavatios de nuestros centros de
datos. Un animal no puede entrenarse con millones de fuentes de
datos ni
tiene tiempo para calcular exhaustivamente su comportamiento. Si lo hace
se expone a ser capturado por un predador, o a que se le escape la presa.
Una de las características más útiles de la
inteligencia natural es la capacidad de relacionar causa y efecto. ¿Qué hace
falta para ello? ¿Podrían hacerlo las máquinas?
Para comprender la causalidad, un ser vivo se fija
en que un suceso X va siempre seguido por un suceso Y. Pero esto puede ser
debido a dos motivos: porque X es la causa de Y, o porque ambos están
correlacionados estadísticamente (véase el artículo de mi blog titulado Correlación
o causalidad). ¿Cómo podemos distinguirlos? Actuando sobre el mundo,
modificando las condiciones, impidiendo que ocurra el suceso X y comprobando si
el suceso Y desaparece. Si esto ocurre, es muy probable que haya causalidad. En
caso contrario, lo que había era correlación estadística. Mitchell lo expresa
así: La hipótesis debe comprobarse. Por lo tanto, el
conocimiento causal proviene de la intervención causal en el mundo.
Es evidente que los programas actuales de IA no son
capaces de interaccionar causalmente con el mundo. Por lo tanto, ni siquiera
están preparados para comportarse como animales inteligentes, mucho menos como
seres humanos. Si se quiere avanzar hacia la inteligencia artificial fuerte,
será preciso realizar un cambio radical de paradigma:
Esto
implica que la inteligencia artificial general no surgirá en sistemas que solo
reciben datos pasivamente. Deben poder actuar sobre el mundo y observar cómo
cambian esos datos en consecuencia. Por lo tanto, esos sistemas tendrían que
materializarse de algún modo: ya sea en forma de robots físicos, o como
entidades de software capaces de actuar en entornos simulados.
Los dos sistemas que propone son los que yo he
utilizado en mis novelas de ciencia-ficción relacionadas con la inteligencia
artificial fuerte. En dos de las novelas de mi serie sobre el Sistema Solar (Operación
Quatuor y Operación
Viginti) aparecen robots inteligentes. Y en La
Escala de Jacob hay entidades de software inteligentes que actúan en
entornos simulados. No está mal, para ser un autor que duda de que este
objetivo pueda conseguirse, al menos a corto plazo.
Esta es la conclusión del epílogo:
En
resumen, la evolución nos ha dado una hoja de ruta para alcanzar la
inteligencia: construir sistemas capaces de aprender, basándose desde el
principio en la experiencia real y la autonomía causal. No se puede construir
un montón de algoritmos y esperar que de repente aparezca en ellos un ser
consciente. Quizá haya que construir la arquitectura de un ser consciente y
dejar que surjan los algoritmos. Para obtener inteligencia, quizá haya que
construir una inteligencia. La siguiente pregunta es si deberíamos hacerlo.
El epílogo del libro de Mitchell tiene sólo cinco
páginas, pero no tiene desperdicio.
Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente
Manuel Alfonseca



No hay comentarios:
Publicar un comentario
NORMAS PARA PONER COMENTARIOS:
1. Estos comentarios están moderados para evitar la publicación de comentarios insultantes o irrelevantes. Los que no cumplan estas normas no serán publicados.
2. Los comentarios deben tener algo que ver con el tema del artículo al que se asocian.
3. También son aceptables comentarios del tipo: "Por favor, considere la posibilidad de publicar un artículo sobre tal tema".
4. No son aceptables comentarios que digan: "¿Qué opina de este artículo?", seguidos de un enlace. Este blog no es un consultorio. No tengo tiempo para leer tantos artículos. Además, ya he contestado a la mayor parte de las preguntas que se me hacen, ya sea en artículos o en comentarios anteriores. Utilicen la búsqueda en el blog para localizarlos.
5. No ponga Anónimo o Unknown como firma del comentario. Ponga cualquier nombre, o al menos diga dentro del texto de quién se trata (no tiene que ser su nombre y apellidos). Si todos pusieran Anónimo o Unknown, no sabría si estoy hablando con una persona o con varias.
6. Sea lo más conciso que le sea posible. Los comentarios no deben competir en longitud con el artículo.
Aunque este blog está preferentemente dirigido a la divulgación de la ciencia, es inevitable que mis ideas influyan en mis artículos. Si a algún lector le molestan mis ideas hasta el punto de no poder mantener la calma, le recomiendo que deje de leerme. Pero si se empeña en discutirlas, exijo respeto, y que se evite la falacia ad hominem. De lo contrario, el comentario no será publicado.