jueves, 4 de septiembre de 2025

¿Debe Barbie conversar con los niños?

The same post in English

ChatGPT y otras herramientas del mismo estilo, llamadas LLM, por las siglas en inglés de Large Language Models (Modelos Grandes de Lenguaje) van siendo usadas cada vez con más frecuencia en nuestra vida diaria. Google, por ejemplo, ha integrado su herramienta GEMINI con su buscador. Algunas veces, cuando el programa que hay detrás del buscador lo considera conveniente, la pregunta que se le ha hecho es enviada a GEMINI, y la respuesta del LLM aparece en primer lugar, eso sí, con este aviso al final, en letra pequeña:

Las respuestas de la IA pueden contener errores.

Naturalmente que pueden contener errores, puesto que esas respuestas no se generan entendiendo la pregunta, sino a partir de información obtenida previamente de Internet, y aplicando un algoritmo que se basa en la extracción de palabras que suelen aparecer en dicha información después de las palabras anteriormente generadas. Véase un artículo de este blog en el que expliqué ese algoritmo. Puesto que la información extraída de Internet puede ser verdadera o falsa, y el algoritmo puede introducir falsedades nuevas donde no las había, las respuestas obtenidas pueden ser correctas, parcialmente correctas, o completamente erróneas, por lo que el aviso de Google es válido.

A pesar de todos los avisos que los expertos procuramos lanzar, algunas personas se dejan engañar por estos programas y creen a pies juntillas en todo lo que les dicen. Quizá los medios tienen parte de culpa, pues este campo de investigación suele ser presentado con una gran exageración. Las cosas han llegado hasta tal punto, que OpenAI (la empresa que lanzó al mercado ChatGPT) ha llegado a contratar psiquiatras para estudiar cómo afectan emocionalmente sus herramientas LLM a sus usuarios. Y recientemente se ha hecho pública la noticia de que ChatGPT ayudó a un joven a suicidarse, y sus padres han demandado a OpenAI.

En junio y julio de este año (2025) ha saltado a los medios la noticia de que OpenAI y Mattel (la empresa creadora de Barbie) han establecido una alianza para construir un modelo de Barbie que esté conectado a las herramientas LLM de OpenAI para convertirla en el primer juguete dotado con inteligencia artificial, al nivel en que ahora se encuentra esta tecnología. Esta muñeca podría hacer lo siguiente:

·         Conversar con el niño. Nada más fácil: lo que diga el niño se convierte en texto. Ese texto se envía a ChatGPT u otra herramienta equivalente, se obtiene la respuesta, y se transforma este texto escrito en texto pronunciado con la voz pregrabada correspondiente. La tecnología está perfectamente preparada para hacer todas estas operaciones.

·         Guardar información sobre las conversaciones anteriores. Basta con proporcionar a la muñeca una memoria electrónica, que puede conservar cientos de gigabytes, y un programa que utilice esa memoria para modificar las conversaciones posteriores. Esto está también al alcance de nuestra tecnología.

Barbie sería así capaz de escuchar, responder, recordar y adaptarse.

¿Qué consecuencias podría tener esto para nuestros niños?

En un artículo publicado en IEEE Spectrum, Marc Fernandez analiza la situación que se crearía, y plantea cuáles podrían ser las ventajas y los inconvenientes de la misma:

·         Los partidarios afirman que los niños aprenderán a crear historias, mejorarán sus habilidades de aprendizaje y quienes tienen problemas para conseguir relaciones sociales encontrarán compañía en su juguete. Mattel promete que la interacción del juguete con el niño será segura y apropiada a su edad.

·         Los contrarios aducen que la relación del niño con el juguete puede ser negativa e incapacitarle para tener relaciones humanas reales. Y aquí cito a Marc Fernandez: Muchos padres temerán que el juguete diga algo inapropiado. Pero el riesgo más sutil, y quizás más grave, es que diga exactamente lo correcto, con un tono de serena empatía y refinada cortesía, pero sin verdadera comprensión. Los niños, especialmente en las primeras etapas de desarrollo, son muy sensibles al tono, el ritmo y la imitación emocional. Los niños que jueguen con [estos] juguetes creerán que se les entiende, cuando, en realidad, el sistema solo predice las palabras siguientes más plausibles.

El final del artículo de Marc Fernandez es realmente demoledor:

Estamos en una situación en la que los LLM están afectando a los adultos de maneras profundas e inesperadas, y a veces desencadenan crisis de salud mental o refuerzan creencias falsas o ideas peligrosas… Esta es una tecnología inexplorada, y los adultos aún estamos aprendiendo a manejarla. ¿De verdad que debemos exponer a los niños a ella?

Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente

Manuel Alfonseca

11 comentarios:

  1. Estupendo comienzo de temporada, Manuel.

    Justamente hace dos días vi una conferencia de hace un año, donde la ponente (Leticia, amiga mía) presenta dos fragmentos de la película Megan (2022) donde se cuenta la historia de una muñeca semejante a lo que pretenden Mattel/OpenAI, y las consecuencias que acarrea, exactamente en la línea del artículo de Marc Fernandez que comentas.

    https://www.youtube.com/watch?v=BAIMchZIqWw&t=1028s

    ResponderEliminar
  2. "Supertoys last all summer long"... en ese cuento, y en la película de Spielberg/Kubrick que lo desarrolló, ya estaba todo. Aunque en ese caso, el objetivo inicial del "juguete" era interactuar con los padres...
    Gracias por el post... interesante e inquietante a partes iguales.

    ResponderEliminar
  3. Roger Penrose habla de estos temas en su libro Sombras de la Mente. Dice entre otras cosas que la consciencia tiene que ver con la mecánica cuántica. ¿Qué opina de esas ideas don Manuel?

    ResponderEliminar
    Respuestas
    1. Penrose y Hameroff son los autores de la teoría ORCH-OR, que afirma que la consciencia reside en los efectos cuánticos de los microtúbulos en las células nerviosas.

      Aunque yo he colaborado con Hameroff en un artículo en el que simulamos dichos efectos cuánticos en los microtúbulos, no creo que de los microtúbulos surja la consciencia, aunque podría ser que ese efecto sirviera como intermediario entre la consciencia y la acción física.

      Este es el artículo al que me he referido: A model of quantum-von Neumann hybrid cellular automata: Principles and simulation of quantum coherent superposition and decoherence in cytoskeletal microtubules M. Alfonseca, A. Ortega, M. de la Cruz, S.R. Hameroff, and R. Lahoz-Beltra. Quantum Information & Computation, Rinton Press, 15:1&2, pp. 22-36, Jan. 2015.

      Eliminar
  4. Bruno pregunta cómo sobrevive la conciencia sin cerebro.

    En mi opinión (y creo que también en la de Joseph Ratzinger) la consciencia necesita del cerebro, y por tanto la supervivencia de la consciencia está ligada con la resurrección de la carne, que posiblemente tendrá lugar en un universo diferente a este.

    ResponderEliminar
    Respuestas
    1. En el libro Escatología: La muerte y la vida eterna, Joseph Ratzinger escribe que la hipótesis de una resurrección en el momento de la muerte no se puede fundamentar ni lógica ni bíblicamente. de la vida futura podemos tener alguna idea en cuanto al hecho de que se da, por extrapolación y a partir de la vida presente; el mensaje de la fe puede echar mano de una cierta evidencia del pensamiento. Pero el qué de esta nueva vida está, por el contrario, absolutamente fuera de lo que nuestra experiencia abarca, siendo imposible conocerla a partir de nosotros. La transmisión de la fe no tiene como finalidad la satisfacción de la pura curiosidad. Siempre que esa transmisión sobrepasa el ámbito propio de la experiencia humana, no se trata de entretener sino de orientar. El más allá se desvela únicamente en la medida en que es útil para orientar en el más acá.

      Eliminar
    2. "Anónimo" dice: "la hipótesis de una resurrección en el momento de la muerte no se puede fundamentar ni lógica ni bíblicamente." ¡Claro! La frase "en el momento" implica "en la misma línea del tiempo". Pero en un universo diferente a este el tiempo sería distinto, ¿no?

      Eliminar
  5. Decir que la IA no entiende las preguntas es como decir que una brújula no sabe dónde está el norte o que un termómetro no comprende la fiebre. ¡Claro que no lo “entienden”! Y sin embargo orientan, salvan vidas y son tremendamente útiles. Lo mismo ocurre con la IA: aunque no entiendan la pregunta, sus respuestas suelen ser tan claras y precisas como las de un experto humano. Al final, lo que importa no es si “entiende”, sino que funcione.
    Por otro lado, decir que la IA “solo predice la siguiente palabra” es como decir que Shakespeare solo juntaba letras o que Einstein solo hacía cuentas. Sí, técnicamente es cierto… pero curiosamente, de ese “solo” salen obras maestras y teorías que cambiaron el mundo. Con la IA pasa lo mismo: de esa predicción estadística "emergen" respuestas tan útiles y coherentes que, en la mayoría de los casos, resultan indistinguibles de las que darían los mejores expertos humanos.

    ResponderEliminar
    Respuestas
    1. Está muy bien tu comparación de los LLM (me resisto a llamarlos IA) con la brújula o el termómetro. Todos ellos son herramientas que sirven a los seres humanos. Lo que se pone en duda en el artículo que comento es si esas herramientas serán útiles para los niños, o si serán perniciosas. Un termómetro puede ser pernicioso para un niño si lo rompe y se traga el mercurio, aunque sea muy útil para los adultos.

      Si lees el artículo de miblog cuyo enlace he puesto en este artículo, donde expliqué cómo funcionan los LLM, verás que estás comparando a Shakespeare y a Einstein con un programa de ordenador de 18 instrucciones. No me parece muy oportuna la comparación. Tampoco veo la relación entre obras maestras y teorías que cambiaron el mundo con los textos que genera un LLM, que para colmo, en un porcentaje enorme de casos, son erróneos.

      Eliminar
    2. Dices: "de esa predicción estadística "emergen" respuestas tan útiles y coherentes que, en la mayoría de los casos, resultan indistinguibles de las que darían los mejores expertos humanos."

      A veces. En relación con un estudio que estoy haciendo, entre ayer y hoy hice una pregunta a los LLM más utilizados sobre un cuento de O.Henry con un argumento que yo detallaba, del que conocía el título, pero estaba seguro de que O.Henry había utilizado el mismo argumento en otro cuento, cuyo título no recordaba.

      Se lo pregunté a ChatGPT y me contestó con un título que no pertenece e O.Henry (lo comprobé porque están todos en la Wikipedia). Pregunté a ChatGPT en qué colección aparece el cuento del título que me había dado (yo sabía que no está en ninguna) y me contestó esto: "Perdone usted, el título que le he dado no es de O.Henry. El verdadero título es este otro" (me dio otro, que tampoco es de O.Henry). Volví a preguntarle en qué colección estaba y me contestó lo mismo, y esta vez me dio un título de O.Henry, pero que no tiene ese argumento.

      Hice la pregunta tres o cuatro veces a Gemini y a la cuarta dio con el título correcto (el que ya conocía, no el que andaba buscando). Las otras veces me contestó con títulos que se parecían a otros cuentos de O.Henry, pero barajaban palabras (lógico, dado el algoritmo que usa) o bien títulos de O.Henry que tienen otros argumentos.

      En fin, que no estoy de acuerdo con tu frase inicial que he citado al principio de este comentario.

      Eliminar

NORMAS PARA PONER COMENTARIOS:

1. Estos comentarios están moderados para evitar la publicación de comentarios insultantes o irrelevantes. Los que no cumplan estas normas no serán publicados.

2. Los comentarios deben tener algo que ver con el tema del artículo al que se asocian.

3. También son aceptables comentarios del tipo: "Por favor, considere la posibilidad de publicar un artículo sobre tal tema".

4. No son aceptables comentarios que digan: "¿Qué opina de este artículo?", seguidos de un enlace. Este blog no es un consultorio. No tengo tiempo para leer tantos artículos. Además, ya he contestado a la mayor parte de las preguntas que se me hacen, ya sea en artículos o en comentarios anteriores. Utilicen la búsqueda en el blog para localizarlos.

5. No ponga Anónimo o Unknown como firma del comentario. Ponga cualquier nombre, o al menos diga dentro del texto de quién se trata (no tiene que ser su nombre y apellidos). Si todos pusieran Anónimo o Unknown, no sabría si estoy hablando con una persona o con varias.

6. Sea lo más conciso que le sea posible. Los comentarios no deben competir en longitud con el artículo.

Aunque este blog está preferentemente dirigido a la divulgación de la ciencia, es inevitable que mis ideas influyan en mis artículos. Si a algún lector le molestan mis ideas hasta el punto de no poder mantener la calma, le recomiendo que deje de leerme. Pero si se empeña en discutirlas, exijo respeto, y que se evite la falacia ad hominem. De lo contrario, el comentario no será publicado.