jueves, 4 de septiembre de 2025

¿Debe Barbie conversar con los niños?

The same post in English

ChatGPT y otras herramientas del mismo estilo, llamadas LLM, por las siglas en inglés de Large Language Models (Modelos Grandes de Lenguaje) van siendo usadas cada vez con más frecuencia en nuestra vida diaria. Google, por ejemplo, ha integrado su herramienta GEMINI con su buscador. Algunas veces, cuando el programa que hay detrás del buscador lo considera conveniente, la pregunta que se le ha hecho es enviada a GEMINI, y la respuesta del LLM aparece en primer lugar, eso sí, con este aviso al final, en letra pequeña:

Las respuestas de la IA pueden contener errores.

Naturalmente que pueden contener errores, puesto que esas respuestas no se generan entendiendo la pregunta, sino a partir de información obtenida previamente de Internet, y aplicando un algoritmo que se basa en la extracción de palabras que suelen aparecer en dicha información después de las palabras anteriormente generadas. Véase un artículo de este blog en el que expliqué ese algoritmo. Puesto que la información extraída de Internet puede ser verdadera o falsa, y el algoritmo puede introducir falsedades nuevas donde no las había, las respuestas obtenidas pueden ser correctas, parcialmente correctas, o completamente erróneas, por lo que el aviso de Google es válido.

A pesar de todos los avisos que los expertos procuramos lanzar, algunas personas se dejan engañar por estos programas y creen a pies juntillas en todo lo que les dicen. Quizá los medios tienen parte de culpa, pues este campo de investigación suele ser presentado con una gran exageración. Las cosas han llegado hasta tal punto, que OpenAI (la empresa que lanzó al mercado ChatGPT) ha llegado a contratar psiquiatras para estudiar cómo afectan emocionalmente sus herramientas LLM a sus usuarios. Y recientemente se ha hecho pública la noticia de que ChatGPT ayudó a un joven a suicidarse, y sus padres han demandado a OpenAI.

En junio y julio de este año (2025) ha saltado a los medios la noticia de que OpenAI y Mattel (la empresa creadora de Barbie) han establecido una alianza para construir un modelo de Barbie que esté conectado a las herramientas LLM de OpenAI para convertirla en el primer juguete dotado con inteligencia artificial, al nivel en que ahora se encuentra esta tecnología. Esta muñeca podría hacer lo siguiente:

·         Conversar con el niño. Nada más fácil: lo que diga el niño se convierte en texto. Ese texto se envía a ChatGPT u otra herramienta equivalente, se obtiene la respuesta, y se transforma este texto escrito en texto pronunciado con la voz pregrabada correspondiente. La tecnología está perfectamente preparada para hacer todas estas operaciones.

·         Guardar información sobre las conversaciones anteriores. Basta con proporcionar a la muñeca una memoria electrónica, que puede conservar cientos de gigabytes, y un programa que utilice esa memoria para modificar las conversaciones posteriores. Esto está también al alcance de nuestra tecnología.

Barbie sería así capaz de escuchar, responder, recordar y adaptarse.

¿Qué consecuencias podría tener esto para nuestros niños?

En un artículo publicado en IEEE Spectrum, Marc Fernandez analiza la situación que se crearía, y plantea cuáles podrían ser las ventajas y los inconvenientes de la misma:

·         Los partidarios afirman que los niños aprenderán a crear historias, mejorarán sus habilidades de aprendizaje y quienes tienen problemas para conseguir relaciones sociales encontrarán compañía en su juguete. Mattel promete que la interacción del juguete con el niño será segura y apropiada a su edad.

·         Los contrarios aducen que la relación del niño con el juguete puede ser negativa e incapacitarle para tener relaciones humanas reales. Y aquí cito a Marc Fernandez: Muchos padres temerán que el juguete diga algo inapropiado. Pero el riesgo más sutil, y quizás más grave, es que diga exactamente lo correcto, con un tono de serena empatía y refinada cortesía, pero sin verdadera comprensión. Los niños, especialmente en las primeras etapas de desarrollo, son muy sensibles al tono, el ritmo y la imitación emocional. Los niños que jueguen con [estos] juguetes creerán que se les entiende, cuando, en realidad, el sistema solo predice las palabras siguientes más plausibles.

El final del artículo de Marc Fernandez es realmente demoledor:

Estamos en una situación en la que los LLM están afectando a los adultos de maneras profundas e inesperadas, y a veces desencadenan crisis de salud mental o refuerzan creencias falsas o ideas peligrosas… Esta es una tecnología inexplorada, y los adultos aún estamos aprendiendo a manejarla. ¿De verdad que debemos exponer a los niños a ella?

Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente

Manuel Alfonseca

2 comentarios:

  1. Estupendo comienzo de temporada, Manuel.

    Justamente hace dos días vi una conferencia de hace un año, donde la ponente (Leticia, amiga mía) presenta dos fragmentos de la película Megan (2022) donde se cuenta la historia de una muñeca semejante a lo que pretenden Mattel/OpenAI, y las consecuencias que acarrea, exactamente en la línea del artículo de Marc Fernandez que comentas.

    https://www.youtube.com/watch?v=BAIMchZIqWw&t=1028s

    ResponderEliminar

NORMAS PARA PONER COMENTARIOS:

1. Estos comentarios están moderados para evitar la publicación de comentarios insultantes o irrelevantes. Los que no cumplan estas normas no serán publicados.

2. Los comentarios deben tener algo que ver con el tema del artículo al que se asocian.

3. También son aceptables comentarios del tipo: "Por favor, considere la posibilidad de publicar un artículo sobre tal tema".

4. No son aceptables comentarios que digan: "¿Qué opina de este artículo?", seguidos de un enlace. Este blog no es un consultorio. No tengo tiempo para leer tantos artículos. Además, ya he contestado a la mayor parte de las preguntas que se me hacen, ya sea en artículos o en comentarios anteriores. Utilicen la búsqueda en el blog para localizarlos.

5. No ponga Anónimo o Unknown como firma del comentario. Ponga cualquier nombre, o al menos diga dentro del texto de quién se trata (no tiene que ser su nombre y apellidos). Si todos pusieran Anónimo o Unknown, no sabría si estoy hablando con una persona o con varias.

6. Sea lo más conciso que le sea posible. Los comentarios no deben competir en longitud con el artículo.

Aunque este blog está preferentemente dirigido a la divulgación de la ciencia, es inevitable que mis ideas influyan en mis artículos. Si a algún lector le molestan mis ideas hasta el punto de no poder mantener la calma, le recomiendo que deje de leerme. Pero si se empeña en discutirlas, exijo respeto, y que se evite la falacia ad hominem. De lo contrario, el comentario no será publicado.