The same post in English
ChatGPT y otras herramientas del mismo estilo, llamadas
LLM, por las siglas en inglés de Large
Language Models (Modelos Grandes de Lenguaje) van siendo usadas cada vez con más frecuencia
en nuestra vida diaria. Google, por ejemplo, ha integrado su herramienta GEMINI
con su buscador. Algunas veces, cuando el programa que hay detrás del buscador
lo considera conveniente, la pregunta que se le ha hecho es enviada a GEMINI, y
la respuesta del LLM aparece en primer lugar, eso sí, con este aviso al final,
en letra pequeña:
Las
respuestas de la IA pueden contener errores.
Naturalmente que pueden contener errores, puesto que esas respuestas no se generan entendiendo la pregunta, sino a partir de información obtenida previamente de Internet, y aplicando un algoritmo que se basa en la extracción de palabras que suelen aparecer en dicha información después de las palabras anteriormente generadas. Véase un artículo de este blog en el que expliqué ese algoritmo. Puesto que la información extraída de Internet puede ser verdadera o falsa, y el algoritmo puede introducir falsedades nuevas donde no las había, las respuestas obtenidas pueden ser correctas, parcialmente correctas, o completamente erróneas, por lo que el aviso de Google es válido.
A pesar de todos los avisos que los expertos procuramos lanzar, algunas personas se dejan engañar por estos programas y creen a pies juntillas en todo lo que les dicen. Quizá los medios tienen parte de culpa, pues este campo de investigación suele ser presentado con una gran exageración. Las cosas han llegado hasta tal punto, que OpenAI (la empresa que lanzó al mercado ChatGPT) ha llegado a contratar psiquiatras para estudiar cómo afectan emocionalmente sus herramientas LLM a sus usuarios. Y recientemente se ha hecho pública la noticia de que ChatGPT ayudó a un joven a suicidarse, y sus padres han demandado a OpenAI.
En junio y julio de este año (2025) ha saltado a
los medios la noticia de que OpenAI y Mattel (la empresa creadora de
Barbie) han establecido una alianza para construir un modelo de
Barbie que esté conectado a las herramientas LLM de OpenAI para convertirla en
el primer juguete dotado con inteligencia artificial, al nivel en que ahora se
encuentra esta tecnología. Esta muñeca podría hacer lo siguiente:
·
Conversar con el niño. Nada más fácil: lo que diga
el niño se convierte en texto. Ese texto se envía a ChatGPT u otra herramienta
equivalente, se obtiene la respuesta, y se transforma este texto escrito en texto
pronunciado con la voz pregrabada correspondiente. La tecnología está
perfectamente preparada para hacer todas estas operaciones.
·
Guardar información sobre las
conversaciones anteriores. Basta con proporcionar a la muñeca una memoria
electrónica, que puede conservar cientos de gigabytes, y un programa que utilice
esa memoria para modificar las conversaciones posteriores. Esto está también al
alcance de nuestra tecnología.
Barbie sería así capaz de escuchar, responder,
recordar y adaptarse.
¿Qué consecuencias podría tener esto para nuestros
niños?
En un artículo publicado en IEEE
Spectrum, Marc Fernandez analiza la situación que se crearía, y plantea
cuáles podrían ser las ventajas y los inconvenientes de la misma:
·
Los partidarios afirman que los niños
aprenderán a crear historias, mejorarán sus habilidades de aprendizaje y
quienes tienen problemas para conseguir relaciones sociales encontrarán
compañía en su juguete. Mattel promete que la interacción del juguete con el
niño será segura y apropiada a su edad.
·
Los contrarios aducen que la relación del
niño con el juguete puede ser negativa e incapacitarle para tener relaciones
humanas reales. Y aquí cito a Marc Fernandez: Muchos padres temerán que el juguete diga
algo inapropiado. Pero el riesgo más sutil, y quizás más grave, es que diga
exactamente lo correcto, con un tono de serena empatía y refinada cortesía,
pero sin verdadera comprensión. Los niños, especialmente en las primeras etapas
de desarrollo, son muy sensibles al tono, el ritmo y la imitación emocional.
Los niños que jueguen con [estos] juguetes creerán que se les entiende, cuando,
en realidad, el sistema solo predice las palabras siguientes más plausibles.
El final del artículo de Marc Fernandez es
realmente demoledor:
Estamos
en una situación en la que los LLM están afectando a los adultos de maneras
profundas e inesperadas, y a veces desencadenan crisis de salud mental o refuerzan
creencias falsas o ideas peligrosas… Esta es una tecnología inexplorada, y los
adultos aún estamos aprendiendo a manejarla. ¿De verdad que debemos exponer a
los niños a ella?
Estupendo comienzo de temporada, Manuel.
ResponderEliminarJustamente hace dos días vi una conferencia de hace un año, donde la ponente (Leticia, amiga mía) presenta dos fragmentos de la película Megan (2022) donde se cuenta la historia de una muñeca semejante a lo que pretenden Mattel/OpenAI, y las consecuencias que acarrea, exactamente en la línea del artículo de Marc Fernandez que comentas.
https://www.youtube.com/watch?v=BAIMchZIqWw&t=1028s
Gracias, Gonzalo.
Eliminar