 |
Mis alucinaciones, de August Natterer |
The same post in EnglishDesde que apareció ChatGPT, a finales de 2022, he
estado avisando de que las contestaciones que dan los Modelos
grandes de lenguaje (LLM, siglas en inglés; me niego a llamar Inteligencia
Artificial a estas herramientas) no son de fiar, y deben tratarse con la mayor
cautela. A menudo esas contestaciones parecen plausibles y están escritas correctamente
desde el punto de vista lingüístico, pero son falsas. Este tipo de respuestas
ha recibido el nombre de alucinaciones.
Esto no es extraño. Es una consecuencia lógica del
algoritmo que emplean estos programas, que describí en otro
artículo de este blog, que yo simulé mediante un programa de sólo 18
instrucciones, y que consiste en ir añadiendo palabras extraídas entre las más
frecuentes que siguen a las palabras anteriores, escogidas entre miles de
millones de archivos sacados de Internet. Es evidente (basta pensar un poco)
que este algoritmo no puede asegurar que las contestaciones que dan estas
herramientas sean verdad.
He utilizado varias veces estas herramientas para resolver
problemas del siguiente tipo: conozco el argumento de una obra literaria, un
cuento o una novela, pero no recuerdo el título o el autor (o ambos), y quiero
que la herramienta me ayude a encontrarlos. Formulo la pregunta describiendo el
argumento en cuestión y añado el nombre del autor si lo conozco. Cuando la
herramienta me ofrece una respuesta, la investigo, para ver si es verdad. Hasta
ahora, en el 100% de los casos en que he planteado un problema de este tipo, la
respuesta ha sido alucinatoria. Mejor dicho, falsa.
|
Julio Verne |
Voy a contar el último caso: Quería recordar el
título de una obra de Julio Verne que leí años atrás, en la que una expedición
intenta observar un eclipse de sol. Esta descripción se la proporcioné a
GEMINI, el LLM de Google, que me contestó que la obra en cuestión es El
rayo verde. Como yo sabía que la contestación era falsa, porque recuerdo bien el
argumento de El rayo verde y no hay ningún eclipse,
volví a hacer la pregunta cambiando la forma de expresarla, para ver si GEMINI
me contestaba otra cosa. Así fue; esta vez me dijo que la obra en cuestión era La
caza del meteoro. Como no he leído esta novela de Verne, sabía de entrada que la
respuesta podía ser falsa, pero por si Verne hubiera escrito dos novelas con
argumentos parecidos, busqué la descripción de esa novela en la Wikipedia, que
me confirmó que en ella no hay ningún eclipse de sol.
Decidí entonces investigar por mi cuenta. Como la
Wikipedia detalla los títulos de todas las obras de Verne (68 viajes
extraordinarios y unas pocas más), fui eliminando las obras cuyo argumento conocía
bien y las que no he leído, y entre las que quedaron elegí la que me pareció
más probable. Acerté a la primera. La obra en cuestión es El
país de las pieles. Pero el fracaso de GEMINI fue absoluto, como lo ha sido el de todas
estas herramientas, siempre que les he formulado una pregunta de este tipo.
Se dirá que mis experiencias de uso no son
estadísticamente significativas. Cierto. Pero resulta que OpenAI, creadora de
ChatGPT, ha realizado un estudio a fondo sobre el tema, y ha llegado a la
conclusión de que las alucinaciones son matemáticamente
inevitables, y no son fallos técnicos que podrían resolverse mejorando los programas.
Véase este
artículo reciente en COMPUTERWORLD, que completa este
otro artículo en la misma revista, algo más antiguo, que señala que, además
de alucinaciones, estas herramientas hacen trampa en diversas circunstancias y
se niegan a reconocer que mienten cuando se las pilla, cuyo título es muy
significativo: ¿Creías que las alucinaciones de la
Inteligencia Artificial generacional eran malas? Pues la cosa es aun peor.
Las noticias de este tipo, que avisan de los
peligros de usar herramientas de tipo LLM y creerse a pies juntillas sus
respuestas, se mezclan con otras noticias exageradas que anuncian a bombo y
platillo que estas herramientas abrirán pronto paso a la inteligencia
artificial generalizada, o sea, a las máquinas tan inteligentes (o más) como el
hombre. Bastantes expertos niegan que esto vaya a suceder. Algunos llegan a
decir que la investigación en LLM puede ser incluso perjudicial para ese otro
objetivo, que para muchos ni siquiera va a ser posible, al menos a plazo no muy
largo.
Entre tanto, llega la noticia de que en
Albania acaban de nombrar ministro a un LLM. Parece que la estupidez e
incompetencia de los políticos actuales no tienen límite.
Hablando de la Prueba de Turing, Evan Ackerman
escribió esto en 2014, en IEEE
Spectrum:
La prueba de Turing no demuestra que un
programa sea capaz de pensar. Más bien indica si un programa puede engañar a un
ser humano. Y los seres humanos somos realmente tontos. Caemos en todo tipo de trucos que una IA
bien programada puede utilizar para convencernos de que estamos hablando con
una persona real que puede pensar.
Desgraciadamente, cada día que pasa le damos la
razón.
Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente
Manuel Alfonseca