Otra conversación con ChatGPT

The same post in English

Como dije en el artículo anterior, el pasado mes de enero realicé dos sesiones con ChatGPT de OpenAI. En la segunda, mis preguntas se dirigieron a los siguientes temas científicos:

  • La teoría especial de la relatividad, el límite de la velocidad de la luz en el vacío, y la posibilidad de viajar en el tiempo.

A lo largo de la sesión fui haciendo las siguientes preguntas:

  1. ¿Puede una partícula viajar a una velocidad mayor que la de la luz?

Respuesta: Según la teoría de la relatividad, descrita por primera vez por Albert Einstein, nada con masa puede viajar a la velocidad de la luz...

  1. ¿Y la radiación de Cerenkov?

Respuesta: Tras explicar la radiación de Cerenkov, ChatGPT agregó esto: Esto es diferente a una partícula que viaja más rápido que la velocidad de la luz en el vacío... La partícula en sí no viaja más rápido que la velocidad de la luz, pero se mueve a una velocidad mayor que la velocidad de la luz en el medio por el que viaja, provocando el efecto de la radiación de Cerenkov. Es obvio que está usando las palabras la velocidad de la luz con dos significados diferentes.

  1. ¿Qué pasa con los taquiones?

Respuesta: Después de explicar qué son los taquiones, ChatGPT agregó que su existencia es dudosa y plantearía problemas y paradojas... y agrega: Además, los taquiones podrían trasladarse al pasado, creando una causalidad paradójica...

  1. Has dicho que "los taquiones podrían trasladarse al pasado". ¿Cómo?

Respuesta: Una larga explicación que contiene esta afirmación errónea: su dilatación temporal (la desaceleración del tiempo percibida por un observador que se mueve a altas velocidades) sería negativa.

  1. Creo que esto está mal. Su dilatación temporal sería imaginaria.

Respuesta: Después de disculparse por su error, ChatGPT explicó por qué el factor de Lorentz sería imaginario y agregó esta afirmación (nuevamente incorrecta): la dilatación del tiempo y la contracción de la longitud de un taquión se describirían mediante un factor de Lorentz imaginario, lo que implicaría que, para un taquión, el tiempo correría hacia atrás y las distancias serían imaginarias.

  1. No estoy de acuerdo con que "para un taquión el tiempo correría hacia atrás y las distancias serían imaginarias". Tanto el tiempo como las distancias serían imaginarios. Se desconoce lo que eso significaría para el tiempo, pero el tiempo no correría hacia atrás.

Respuesta: Cuando dije que "para un taquión el tiempo correría hacia atrás", no estaba en lo cierto. Luego agregó que un tiempo imaginario provocaría problemas y paradojas.

  1. Entonces, ¿es posible viajar en el tiempo?

Respuesta: La posibilidad de viajar en el tiempo es un tema de mucho debate en física y ciencia-ficción. Las leyes de la física, tal como las entendemos actualmente, no descartan la posibilidad de viajar en el tiempo, pero sí imponen ciertas restricciones. Luego habló sobre la posibilidad de “curvas temporales cerradas” en la teoría de la Relatividad, sus dificultades prácticas y los posibles problemas planteados por la teoría cuántica.

  1. ¿Qué pasa con la paradoja de Fermi?
    Enrico Fermi

Respuesta: Aquí vino una larga descripción de la paradoja de Fermi aplicada a la búsqueda de inteligencias extraterrestres.

  1. Quise decir la paradoja de Fermi aplicada al viaje en el tiempo.

Respuesta: Me disculpo por haber malinterpretado su pregunta. Luego vino una larga descripción de la paradoja de Fermi aplicada a los viajes en el tiempo.

  1. ¿Qué te parece esto: el entrelazamiento cuántico y el teorema de Bell prueban que es posible la transmisión instantánea de información? Hice esta pregunta para saber si ChatGPT respondería negativamente, como debía.

Respuesta: Después de una larga descripción del entrelazamiento cuántico y el teorema de Bell, ChatGPT escribió esto: Si bien el fenómeno del entrelazamiento cuántico parece implicar que la información se puede transferir instantáneamente, no implica necesariamente que la información se transmita más rápido que la velocidad de la luz… todavía no es posible usarlo para enviar información más rápido que la luz. Esta respuesta no me pareció satisfactoria. Da la impresión de que podrá hacerse en el futuro. Así que formulé la siguiente pregunta:

  1. Dijiste que "todavía no es posible usarlo para enviar información más rápido que la luz". ¿Será posible en el futuro?

Respuesta: Actualmente no es posible usar el entrelazamiento cuántico para enviar información más deprisa que la velocidad de la luz. Las leyes de la física tal como las entendemos actualmente prohíben que cualquier información se transmita más rápido que la velocidad de la luz. Pero luego agregó que siempre es posible que, en el futuro, los avances en nuestra comprensión de la física nos permitan aprovechar las propiedades del entrelazamiento cuántico de formas nuevas e inesperadas, pero por ahora no hay evidencia teórica o experimental de que sea posible usar el entrelazamiento cuántico para enviar información más rápido que la velocidad de la luz. Por lo tanto, hice mis dos últimas preguntas:

  1. Pero según la Relatividad, nunca será posible transmitir información a una velocidad superior a la de la luz. ¿Correcto?

Respuesta: ChatGPT aceptó que la Relatividad prohíbe que la información se envíe más rápido que la velocidad de la luz en el vacío, y agregó: el entrelazamiento cuántico... no implica una comunicación más rápida que la luz... por ahora no hay forma de usarlo para una comunicación más rápida que la luz, tal como se entiende actualmente la física. 

  1. Entonces, ¿debemos concluir que la información nunca se transmitirá a una velocidad mayor que la de la luz?

Respuesta: Según nuestra comprensión actual de la física, en particular la teoría de la relatividad especial, se cree que nunca será posible transmitir información a una velocidad mayor que la de la luz. Este es un principio fundamental de la teoría de la relatividad especial, que ha sido ampliamente probada y está bien establecida con evidencias experimentales.

Mi conclusión: no me resultó difícil hacer que ChatGPT cayera en algunas trampas y que sus respuestas se ajustaran poco a poco a lo que yo quería que dijera. Mi impresión, después de esta breve prueba, es que se trata de un excelente avance en la programación de sistemas de procesamiento del lenguaje, con un algoritmo de última generación. Pero cualquier intento de presentarlo como algo más que inteligencia artificial débil es obviamente erróneo. Y tardará en ser verdaderamente útil.

Se ha señalado que ChatGPT y otras herramientas parecidas proporcionan información errónea, incompleta o sesgada. ¿Qué tiene esto de sorprendente, puesto que sacan la información de Internet, que está plagado de información de origen humano errónea, incompleta o sesgada?

Se dice que estas herramientas sustituirán pronto a los buscadores. Espero que esta previsión no se cumpla. Cuando yo busco información, quiero saber de dónde procede. Los buscadores actuales me dicen si viene de la Wikipedia, si lo ha dicho un profesor de filosofía, o si procede del muro de un usuario de Facebook. Esto me permite asignar a cada elemento de información cierto grado de credibilidad. Sé, por ejemplo, qué se puede esperar de la Wikipedia, pues he corregido decenas de errores en esta enciclopedia. Si los buscadores fuesen sustituidos por estas herramientas, esa información dejaría de estar disponible. Por lo tanto, no me serían útiles.

Hilo Temático sobre Inteligencia Natural y Artificial: Anterior Siguiente

Manuel Alfonseca

Parte de este artículo se publicó en La Nueva Razón el 24/1/2023

32 comentarios:

  1. Comparo plenamente tus conclusiones, Manuel:

    1- "ChatGPT [cae facilmente] en algunas trampas"
    2- "se trata de un excelente avance en la programación de sistemas de procesamiento del lenguaje"
    3- "cualquier intento de presentarlo como algo más que inteligencia artificial débil es obviamente erróneo. Y tardará en ser verdaderamente útil"
    4- "propocionan información errónea, incompleta o sesgada. ¿Qué tiene esto de sorprendente...?"
    5- "... sustituirán pronto a los buscadores. Espero que esta previsión no se cumpla"

    Me parece una entrada sumamente sensata y -marca de la casa- muy bien argumentada. ¡¡Gracias!!

    ResponderEliminar
  2. Manuel, como mi nivel de comprensión de la física relativista y cuántica está bastante por debajo del tuyo, he imaginado esta conversación como si yo fuera ChatGPT, buscando desesperadamente información en fuentes fiables (hasta donde yo supiera), pero que yo mismo no llegaba a comprender (o sea, papers científicos en áreas fuera de mi especialidad). De esta manera, demuestro una capacidad procedural de búsqueda de información y diálogo simulado, pero no tengo, ni de lejos, una verdadera comprensión de aquello de lo que estoy hablando. Estoy dentro de la habitación china de Searle, pero en este caso lo que no entiendo no es el lenguaje, sino el tema del que se habla.

    Tu último párrafo me parece que es absolutamente clave: cualquier enciclopedia remite a fuentes de autoridad fiables. La clave de estas fuentes no es que tengan autoridad absoluta, sino que son contrastables, y en su caso refutables. Si ChatGPT sustituye a las enciclopedias será un desastre. Será un oráculo imposible de rebatir racionalmente. Como ya han demostrado varias conversaciones, lo único que se logra cuando uno insiste es que acabe dándote la razón, pero no de forma verdaderamente racional.

    ResponderEliminar
  3. Muy buen artículo Manuel! En la parte de referencias hay una start-up que plantea un modelo de combinar la información de internet con los modelos de lenguaje que es interesante ya que si incluye las referencias a la información.

    https://www.perplexity.ai/

    Aquí se pierde la parte dialogada

    ResponderEliminar
    Respuestas
    1. Es cierto, dice de dónde lo ha sacado, pero no qué ha sacado de cada fuente. Y mezcla la Wikipedia con El País.

      Por cierto, ante la preocupación de muchos profesores porque los alumnos puedan utilizar ChatGPT para componer sus ejercicios y trabajos de curso, OpenAI ha sacado una nueva herramienta (OpenAI Analizer) que dice si un texto ha sido generado por una AI o por un ser humano. La probé con 14 de las contestaciones que me dio ChatGPT y el resultado fue este:
      a) Probablemente generado por un AI: 4
      b) No lo sé: 4
      c) Probablemente generado por un ser humano: 6
      O sea, que ni siquiera llegó al 50% de aciertos. Estas herramientas tienen mucho trabajo por delante, antes de ser verdaderamente útiles.

      Eliminar
    2. Si, en el tema de detectar texto generado por ChatGPT hay mucho recorrido. No sé si se terminará consiguiendo del todo, ya que seguro que salen IA que permiten parafrasear de manera que sea indetectable, y ahí estaremos como el gato y el ratón.

      Eliminar
    3. Si una AI me dice de dónde ha sacado un texto completo, pero o qué ha sacado de cada uno, la credibilidad del conjunto pasará a ser la credibilidad del componente menos creíble de las fuentes. Lo que yo pido (y otros conmigo) es que nos diga de dónde ha sacado cada elemento de su respuesta, al estilo de un artículo científico, que incluye enlaces a referencias, o de los resultados de un buscador, que te da cada elemento por separado.

      Eliminar
  4. Yo diría que vais a tener que esperar muy poco para ver algunas cosas de las que echáis en falta.

    Hace un par de días Microsoft presento la integración de ChatGPT en su motor de búsqueda y en la presentación ya se veía que el motor proporcionaba referencias bibliográficas en las respuestas. Es decir, ChatGPT ya es capaz de bucear en Internet para buscar respuestas y decir de donde las saca.

    No me cabe la menor duda de que es una herramienta potentisima y que revolucionara el mundo de las búsquedas, y muchos otros.

    No me extraña que la IA se lie respondiendo a preguntas que, en definitiva, son de las más difíciles de responder incluso para un humano con ciertos conocimientos, pero mi experiencia es que se defiende bastante bien en muchos ámbitos, y que esto nos es más que el principio. La capacidad de estas IAs era absolutamente impensable hace un par o tres de años, y ahi estamos nosotros mirando con lupa los resultados y las contradicciones en las que cae, como si a los humanos no nos pasara lo mismo.

    E insisto, no estanos viendo las capacidades de estos algoritmos si se entrenan para responder en campos específicos, ni su integración con otros sistemas (se habla por ejemplo de integrarlos con Wolfram Alpha). Ya irán llegando mejoras, es obvio que esto es solo el principio.

    Saludos

    ResponderEliminar
    Respuestas
    1. Tu comparación de ChatGPT con un "ser humano medio" al que se hagan estas preguntas no es adecuada. A mí jamás se me ocurriría hacérselas a un ser humano medio. Ya sé que no sabría responderlas. La comparación correcta es de ChatGPT con una enciclopedia o un libro de texto sobre estos temas. Si un artículo de enciclopedia o un libro de texto respondiera a mis preguntas sobre la relatividad del modo en que lo ha hecho ChatGPT yo lo consideraría malo e inadecuado.

      En cuanto a tu optimismo respecto al tiempo que hace falta para que estas herramientas se impongan, te recuerdo que la tecnología no lo es todo, que también existen otras consideraciones antes de que un avance tecnológico pueda imponerse.

      Te pondré un ejemplo: existen automóviles de conducción automática del nivel 3 desde hace más de un cuarto de siglo. Sin embargo, consideraciones ético-legales han impedido su utilización masiva.

      En el caso de estas herramientas tipo ChatGPT, también existen consideraciones ético-legales que podrían retrasar su uso. En este artículo se plantean tres, que por cierto, fueron ofrecidas por ChatGPT (a partir de documentos de origen humano de la Internet, por supuesto): https://www.madrimasd.org/chatgpt-etica-e-inteligencia-sin-conciencia?utm_campaign=notiweb-09022023

      Son estas:

      a) Uso académico: problemas de integridad y originalidad
      b) Homogeinización de los puntos de vista
      c) Falta de contexto y sus implicaciones (a esto me refería yo en el último párrafo de mi artículo).

      Eliminar
    2. A estas tres consideraciones ético-legales hay que añadir otras:

      d) Uso incorrecto de información sometida a derechos de autor.
      e) Uso incorrecto de información privada de seres humanos.

      Noticia muy reciente:
      Los modelos de IA reproducen fotos de personas reales e imágenes con derechos de autor

      Eliminar
  5. Manuel,

    Con todos los respetos, yo creo que tu "error" es tratar a esta herramienta como una enciclopedia, o como un buscador convencional, cuando no lo es. Esta tecnología intenta responder a las preguntas con una interface de lenguaje humano, y responde a casos concretos, creando las respuestas a partir del entrenamiento, no meramente repitiendo (por mucho que se empeñen algunos). Para responder como un libro, o como una búsqueda de Google ya están los libros y el motor de búsqueda de toda la vida. Estas herramientas lo que aportan es el "aplicar" ese conocimiento a preguntas específicas. Y les puedes pedir que te lo expliquen a diferentes niveles, o que lo apliquen a un caso concreto, cosa que no le puedes pedir a un libro.

    Por eso decía lo del humano medio. Porque yo lo he puesto a prueba con preguntas concretas, o con conversaciones que implican cierto razonamiento y se comporta relativamente bien. Le pido por ejemplo que analice sintácticamente frases, y lo hace, le pido que me resuma textos, y lo hace, le pido que cree una poesía de un tema, y lo hace, le pido que escriba un código en BASIC para una tarea concreta, y lo hace... Y esto no se lo puedes pedir a un libro de gramática, o a un libro de como escribir en BASIC.

    Luego está el tema polémico de los derechos de autor, pero ojo, una cosa es el juego de datos con el que se le ha entrenado y otra distinta es lo que el modelo produce. Por ejemplo, Stable Difussion, cuando se le pide que dibuje algo, no lo está copiando literalmente de los datos con los que se le entrenó, esto sería imposible, ya que el programa son 4Gb escasos, y ahí, como es comprensible, no pueden estar todas las imágenes que produce para "cortar y pegar".

    Por supuesto que puede haber problemas éticos de toda clase, de derechos de autor y de mal uso de las tecnologías, y te aseguro que habrá discusión, pero no está en nuestras manos cuando se liberan estas tecnologías, eso lo deciden sus creadores, por supuesto entiendo que teniendo en cuenta aspectos legales, aunque como siempre esto es algo muy difuso, y en lo que debería participar la sociedad entera. Me recuerda a lo que sucedió en los 2000 con los derechos de autor referidos a música y contenido audiovisual. Después de un periodo de "barra libre" se llegó a una solución que satisfaciera a la mayoría de las partes (plataformas de streaming como Spotify o Netflix).

    Esto siempre pasa con los cambios tecnológicos, no está en nuestras manos el ritmo o la manera en la que se implementan. Pero me llamó la atención lo que dijo en una entrevista el CEO de Open IA, al comentar que no están liberando todas las tecnologías que tienen según las tienen desarrolladas, si no que las liberan poco a poco para (literalemente, según lo dijo) "dar tiempo a la sociedad para adaptarse a estas tecnologías).

    Y desde luego que soy "optimista" en cuanto al tiempo en el que se van a imponer estas tecnologías, aunque claro, eso depende de las expectativas de cada uno. Yo considero que la revolución en las búsquedas está ya ahí, y no lo digo por nada, si no porque hace unos días como decía Microsoft presentó sus nuevos productos, entre los que se encontraba una versión del buscador Bing que incorpora la tecnología de ChatGPT (GPT-3, en definitiva). Te recomiendo que la veas, porque ahí se puede ver concretamente que esta versión incorporará referencias bibliográficas y de fuentes en las respuestas. Y se supone que esto será liberado en semanas, y como digo, intuyo que será solo el principio. Microsoft ha invertido 10.000 millones de dólares en Open IA (que se dice pronto) y me da la sensación de que no se invierte esa cantidad en una "atracción de feria", como muchos califican a ChatGPT.

    No me extiendo más, como puedes suponer el tema me apasiona y podría hablar largo y tendido.

    Un saludo.

    ResponderEliminar
    Respuestas
    1. Puede que sea mi "error", o puede que sea el tuyo. En cualquier caso, yo no he sido quien ha dicho que estas herramientas van a sustituir a los buscadores. Lo están diciendo todos los medios de comunicación.

      ¿Qué tú quieres usar ChatGPT para otras cosas distintas que yo? Enhorabuena. Pero yo lo que dije en mi artículo es que "Si los buscadores fuesen sustituidos por estas herramientas, esa información dejaría de estar disponible. Por lo tanto, no me serían útiles." Hablo de lo que yo busco, no de lo que buscan los demás.

      Lamentablemente, ayer me llegó una noticia que confirma mis preocupaciones. Después de 46 años y 4 meses de existencia, la revista Investigación y Ciencia ha dejado de existir. "Investigación y Ciencia ha muerto. ¡Viva ChatGPT!" El grado de credibilidad que yo tenía en Investigación y Ciencia era bastante alto (aunque no estoy de acuerdo con todo lo que decía). El grado de credibilidad que me merece ChatGPT es mucho menor REPITO: para lo que yo podría utilizarlo. En mi opinión, todo esto nos lleva hacia esa igualación por abajo en que algunos creen que consiste el progreso.

      Conste que no he dicho en ningún sitio que ChatGPT sea la causa del fin de Investigación y Ciencia.

      Eliminar
  6. Buenas Manuel,

    No acabo de entender completamente tu respuesta y tu reacción, pero puede ser cosa mia, obviamente.

    No me va nada en que la herremienta se use de una manera u otra, simplemente trataba de ofrecer mi perspectiva acerca de en que se estaba pensando cuando se diseñó, eso es todo. Creo que se deduce de la naturaleza de estas herremientas que no son libros, ni enciclopedias, ni buscadores, todo esto ya estaba inventado. No hace falta invertir 10.000 millones de dólares para tener todo eso, porque ya existe. Dall-e-2 no busca en Internet las imágenes que se le piden, las "crea" a partir de su entrenamiento, de la misma manera que ChatGPT no busca las respuestas literales en Internet.

    Mi opinión no es que estas herramientas vayan a sustituir a los buscadores, si no que se integrarán en estos para dar otra clase de soluciones que hasta ahora no eran posibles. Yo le puedo preguntar a Bing con ChatGPT que me busque un coche con marchas automáticas, tracción 4x4, con determinado número de plazas e híbrido y hasta ahora lo único que tenía es lanzar búsqueda tras búsqueda para hacerlo yo mismo, ahora el buscador, me va a dar una lista de coches que cumplen las condiciones que yo quiero, y me va a ahorrar horas que tendría que haber invertido en investigar por mi cuenta. Será entonces cosa mia darle la credibilidasd que considere o pensar que yo lo podría haber hecho mejor, o que un experto en coches me ofrecería una respuesta mejor. Pero como digo, ni los buscadores desaparecerán ni veo que la información que ahora está disponible tenga que dejar de estarlo, es más, la IA la necesitará para ofrecer sus respuestas.

    Yo también lamento la desaparición de la publicación que citas, pero probablemente no habría desaparecido si hubiera tenido más suscriptores o más ventas, lo digo desconociendo el caso en concreto de las circunstancias que han hecho desaparecer a la revista.

    Por lo demás, estoy de acuerdo en lo que dices, el grado de credibilidad de ChatGPT me parece inferior al que tendría un humano experto en su campo, como podrías ser tú, sin ir más lejos, aunque veo muy probable que esto pueda cambiar en un futuro, no demasiado lejano.

    También estoy de acuerdo en la tendencia a la igualación por debajo que citas, pero esto es otro tema (o tal vez no, quien sabe, sinceramente no sabría decirlo). Pero ChatGPT no tendría que tener ninguna relación con esta igualación si los ciudadanos vinieran ya educados de casa, por decirlo de alguna manera.

    Un saludo y gracias por tu tiempo.

    ResponderEliminar
    Respuestas
    1. Pues estoy de acuerdo con casi todo lo que dices en este comentario :-)

      Eliminar
  7. Buenas; Seguramente un profesor que hubiera propuesto esas preguntas en un examen general aprobaría al chatbot por sus respuestas. Está sucediendo:

    https://www.lainformacion.com/management/chatgpt-aprueba-examen-profesor-universidad-wharton-negocios/2880293/

    No obstante las preguntas son bastante estándar con amplia librería, quizás preguntas inusuales como ¿por qué Einstein se asustó cuando los rayos cayeron sobre el tren? puedan desenmascarar a la IA.


    ResponderEliminar
    Respuestas
    1. Si yo hubiese explicado estas cuestiones en mi curso, y un alumno me hubiese contestado como lo ha hecho ChatBot, posiblemente le habría suspendido. Sus respuestas a mis preguntas contienen errores de concepto, y encima se empeña en repetir las respuestas erróneas después de corregirle, como se ve en las preguntas 5 y 6. El problema es que ChatBot no tiene conceptos, sino que todas sus respuestas se generan aplicando un algoritmo, por eso se empeña en los errores de concepto.

      En una entrevista que alguien hizo con ChatBot sobre Mortadelo y Filemón, se empeñó en afirmar una y otra vez que Ibáñez nació en Madrid, cuando en realidad nació en Barcelona.

      Eliminar
    2. Buenos días; Han sido 13 preguntas, salvo en el interrogatorio de los taquiones, que parece estar hablando en el contexto de la paradoja de Tolman, ha dado respuestas en mi opinión aceptables, de guion.

      Es diferente un examen en donde hay que responder a 20 preguntas de conocimiento que cuentan independientemente, a una prueba Turing o de Replicantes. Independientemente de que en mi opinión supera el examen de conocimiento, no supera una prueba de Introspección del conocimiento en determinadas preguntas que seria el equivalente test de Turing.

      La cuestión es que el espacio que existe para esta IA dentro de las actividades económicas, incluso en el propio mundo académico, aunque no sea capaz de introspección semántica genuina es enorme.

      Eliminar
    3. Pues yo calificaría 5 respuestas como totalmente incorrectas, 4 como parcialmente incorrectas, y 4 como correctas. O sea, un suspenso claro.

      Eliminar
  8. Le he preguntado al chatgpt;

    ¿Cómo se sintió Einstein cuando el rayo golpeo el tren?

    Einstein quedó fascinado cuando vio un rayo caer sobre un tren. Estaba asombrado de cómo la electricidad podía viajar tan rápido y se inspiró para desarrollar sus teorías de la relatividad.

    ResponderEliminar
  9. Un amigo mío me dijo esto: "No me acuerdo del autor, pero un cuento de ciencia-ficción postulaba el fin de la enfermedad y el envejecimiento, pero no de la muerte accidental. Al principio todo el mundo se vuelve extremadamente consciente de su seguridad, pero la gente se aburre y surge una tendencia a correr riesgos extremos, que incluye el combate mortal uno contra uno."

    Para ver si podía averiguar el título del cuento y su autor, decidí plantearle el problema a ChatGPT. Pregunté esto: "Busco una historia de ciencia ficción donde la enfermedad y el envejecimiento hayan terminado, pero no la muerte accidental. Todo el mundo se vuelve extremadamente consciente de la seguridad al principio, pero la gente se aburre y se afianza una tendencia de asumir riesgos extremos, que incluye el combate mortal uno contra uno. ¿Sabes qué historia es esta y quién la escribió?"

    Esta fue la contestación de ChatGPT: "La historia de ciencia ficción a la que te refieres es "The Rollercoaster Tycoon" de Vernor Vinge, publicada por primera vez en 1995 en la antología "A Good Old-Fashioned Future".

    En la historia, los humanos lograron la inmortalidad biológica y erradicaron la enfermedad y el envejecimiento, pero la muerte accidental sigue siendo una posibilidad. Esto conduce a una cultura obsesionada con la seguridad y la aversión al riesgo, que finalmente se convierte en una tendencia de extrema toma de riesgos e incluso violencia. El protagonista, un diseñador de montañas rusas, se ve atrapado en esta tendencia mientras intenta crear el viaje más emocionante."

    A continuación decidí investigar el asunto. Descubrí esto:

    a) Vernor Vinge es un autor de ciencia ficción, pero no parece haber escrito la historia o la antología mencionada por ChatGPT.

    b) La colección "A good old fashion feature" fue escrita por Bruce Sterling. Fue publicada en 1999, no en 1995.

    c) El cuento "The Rollercoaster Tycoon" no está en esa antología.

    d) "Rollercoaster Tycoon" es un videojuego desarrollado por el diseñador de programas Chris Sawyer en 1999.

    Por lo tanto, cuando ChatGPT no sabe qué responder, inventa la respuesta.

    ResponderEliminar
    Respuestas
    1. Es increíble. Me había tragado completamente la respuesta de ChatGPT, posiblemente porque la mención de Vernor Vinge la hacía creíble para mí. Si llegas a descubrir la verdadera historia no dejes de compartirla.

      Eliminar
    2. Continuando la conversación anterior, señalé a ChatGPT todas las inconsistencias que yo había detectado y se disculpó por sus errores. A continuación le volví a hacer la misma pregunta inicial y contestó con otro cuento, esta vez "The pedestrian" de Ray Bradbury, aunque reconoció que no debía de ser el que yo preguntaba porque no contenía los elementos de riesgos extremos y combates mortales.

      Eliminar
    3. Todo esto demuestra que cualquier respuesta de ChatGPT hay que comprobarla en enciclopedias o mediante buscadores clásicos. Por lo tanto, la afirmación de que ChatGPT está a punto de sustituir a los buscadores clásicos es, cuando menos, prematura.

      Eliminar
  10. Estoy de acuerdo con vosotros en la fiabilidad (actual) de las respuestas, pero sinceramente, en algunos casos lo que me parece fascinante es el como falla, me explico.

    Le he hecho algunas preguntas de materias que conozco a fondo, por ejemplo, le pregunté por guitarras de escala 25 pulgadas económicas recomendables, y me dió algunas respuestas aparentemente buenas, digo aparentemente porque me daba guitarras con escala 25 y medio, al hacerle ver el error me contestó que efectivamente me estaba dando escala de 25 y medio, pero que media pulgada no le parecía gran diferencia. El caso es que cualquier guitarrista sabe que media pulgada se nota bastante en la escala, pero claro, está dando respuestas generales, con una "comprensión" llamemosla "multiusos".

    Pero estoy seguro de que esto cambiará pronto. De hecho, si os fijáis hace unos días Bing ha metido una opción en su funcionalidad con ChatGTP en la que podemos elegir el "estilo" de la búsqueda, que puede ser "más creativo", "más equilibrado" o "más preciso".

    Yo soy optimista como sabéis, pero si mis expectativas son reales o no lo dirá el tiempo. Yo opino que el algoritmo se puede "afinar" más para dar respuestas más exactas, o como ya están haciendo podrás decirle si quieres una respuesta más abierta o más precisa. Tened en cuenta que es un producto gratuito, es decir, esto en realidad quiere decir que el producto somos nosotros que estamos haciendo de "beta-testers" del proyecto. Con nuestras conversaciones van a mejorar el algoritmo, no es quepa duda de esto.

    Un saludo.

    ResponderEliminar
    Respuestas
    1. Antonio, hace pocos años era inconcebible no ya lo que hace ChatGPT, sino lo que hace un traductor automático, que en general traduce mucho mejor que la mayor parte de la gente, y no digamos la utilidad que le vemos cuando se trata de un idioma completamente desconocido (como puede ser el ucraniano para mí).

      Pero la cuestión de la fiabilidad es otra. Un traductor profesional se hace responsable de los textos que traduce, carga con las consecuencias si lo hace mal. Un traductor profesional no puede entregar una traducción automática, ni la de ahora ni la de dentro de diez años, sin revisarla y sin hacerse personalmente responsable. La responsabilidad es una cualidad que poseen exclusivamente los seres inteligentes y libres (por ahora, solo los humanos).

      Y lo mismo con cualquier otro "output" automático, sea un programa en python, el resumen de la biografía de un personaje público, la previsión del tiempo, lo que sea. Por muy exactos que sean los resultados, no serán fiables si no hay una persona o corporación que se hace responsable de ellos. Y no se podrá hacer responsable si no es capaz de explicar cómo se ha llegado a esos resultados. La explicabilidad es uno de los grandes problemas a los que se enfrenta la Inteligencia Artificial.

      Eliminar
    2. Como dice Gonzalo, cuando uso un traductor automático, soy responsable de corregir la respuesta. De hecho, siempre hay que corregir la respuesta, porque la traducción es perfecta en muy pocos casos. Y si la uso para algo sin corregirla, yo soy responsable de los errores que haya podido cometer el traductor automático.

      Si hago una búsqueda con una de las herramientas "clásicas" (un buscador de Internet, como Google) yo soy responsable de comprobar cuál de las respuestas que me ofrece es la que me interesa. Si me trago la primera respuesta sin analizarla, el responsable del error soy yo.

      Generalizando, si hago una pregunta a ChatGPT y acepto la respuesta sin analizarla, yo soy responsable de los errores que yo mismo pueda cometer en consecuencia.

      El problema es que ChatGPT "engaña" con gran facilidad a quien le hace la pregunta, haciéndole bajar el listón de credulidad, por la forma en que da la respuesta. Me temo que esto va a provocar numerosos errores, porque algunas (muchas) personas no tienen capacidad de discriminar en estos casos. Si esto ocurriera, el creador de la herramienta o la empresa que la pone a disposición del público deberían ser responsables. ¿Lo serán? Lo dudo.

      En cualquier caso, ChatGPT es una herramienta, y como tal hay que tratarla.

      Eliminar
    3. Una vez me pidieron revisar un artículo, año 2006 creo. Topología de imagen digital. Dije que no, porque esto ya está publicado el 1978 en chino, en su proceedings de la academia china. Bueno, incluso por las formulas estaba claro. No hubo traducción automática, no hubo texto computarizado como texto, en fin solo una foto del artículo original.
      Pues me respondieron que ya que no está en inglés es como que si no esté publicado y lo publicaron en inglés... En fin, les puse un filtro del email para no leer de esta revista ni de los editores.

      Es curioso como ahora gente que no tiene ni un conocido en Ucrania o en Rusia y probablemente nunca ha estado por allí comenta exaltado en los periódicos.

      Eliminar
  11. Como dice su nombre este es un chat. Y como tal no puede saber más de lo que recibe como entrada. Es decir lo que este escrito en algún sitio. No va a saber mejor que aquel viajero andante que de poco dormir y de mucho leer se le secó el cerebro. Y se explica como se explica que el queso es salado, no sabremos que es salado sin probar por ejemplo un queso. Lo escrito no es más que una compresión enorme da lo que hablamos, perdiendo mucho de la voz viva, siendo esta voz por sí mismo una representación muy, muy restringida de la realidad. Para empezar lo escrito es una cadena unidimensional de caracteres. Y el mundo no lo es. En fin, la sabiduría es algo distinto de saber mucho.

    Y no creo que el Chat lo que sea será mejor que un periodista, que es muy restringido de lo que puede escribir de la realidad. El periodista, incluso el mejor periodista, no puede dar más que una relato de lo que cuentan sus fuentes de información en el momento de la publicación, según su capacidad de comprender y según sus limitaciones -- existenciales, de alcance de los fuentes, de posibilidad de estar en el punto de los sucesos. ¿Puede un periodista tipico de España explicar sin más lo que le cuentan en chino? ¿Contará algo contra sí mismo?

    De no hablar que el chat recibirá solo lo políticamente correcto. Por ejemplo que los centrales nucleares son mucho peor para la naturaleza que del carbón, si se limitan a la información del año 2000. Ya sabemos cómo se contaban las cosas de parte de los embajadores a los emperadores de Bizantina y como se escribían después los almanaques bizantinos. En fin, el chat no recibirá los secretos del estado.

    Así que nada, por el momento tenemos la suerte que un Chat así no decide por nosotros. Pero pronto lo decidirá.

    ResponderEliminar
  12. Gonzalo, Manuel.

    Lo que no acabo de entender es la mezcla de conceptos que estáis proponiendo. No sé que tiene que ver la fiabilidad con la responsabilidad, por ejemplo, intentaré aclarar mis ideas al respecto más abajo.

    El tema de la responsabilidad es algo aparte. Nadie le pediría por ejemplo a una calculadora que sea "responsable" de los resultados, sea lo que sea que eso signifique, que tampoco está muy claro.

    Actualmente como sabéis una cantidad enorme de decisiones se llevan a cabo "confiando" en algoritmos, máquinas, programas... ¿Qué esto no debería ser así? Podríamos discutirlo. Lo que si está claro es que el mundo no sería tan "eficiente" de no ser por esas máquinas, por esos algoritmos, y (ahora) por esas "inteligencias artificiales" (nótese que yo mismo lo entrecomillo). Eficiencia en el sentido de aprovechamiento de los recursos, velocidad a la que se toman las decisiones, productos y servicios que serían directemente imposibles sin ellos. Por supuesto que debe haber alguien que se responsabilice, pero, me temo que en la práctica esa responsabilidad podrá ser más o menos relevante una vez cometido el posible error, más que nada quedamos a merced de que el error cometido sea reversible o no. Lo mismo que pasa con las decisiones humanas.

    Y al respecto de éstas, los humanos también podemos ser irresponsables de nuestros actos. No hay más que ver las claúsulas de algunos servicios profesionales, en los que el profesional (humano) se cubre las espaldas no haciéndose responsable de ciertos resultados o consecuencias de sus actos.

    Me da la sensación de que mezcláis fiabilidad, responsabilidad y confianza. Respecto a esta última está claro que los humanos "confiamos" en los resultados que nos ofrecen las máquinas y que haría falta una cantidad irrazonable de trabajo para comprobar todos los resultados que arrojan, haciendo como digo muchas veces no factible o imposible alcanzar los resultados deseados sin esa confianza. Lo veo todos los días en mi trabajo, nadie se cuestiona ciertos resultados que arrojan los ERP en las empresas, a menos que "canten" mucho.

    Y respecto de la responsabilidad y la fiabilidad, sinceramente no entiendo lo que tiene que ver una cosa con la otra. Fiabilidad es no cometer errores en los procesos, responsabilidad es hacerse cargo de los resultados, pero son cosas independientes. Por ejemplo, supongamos un coche autónomo que tiene una tasa de accidentes de uno cada millón de kilómetros, pero no se hace responsable de los errores. Por el contrario un humano tiene accidentes una vez cada 250.000 kilómetros pero se "hace responsable" de éstos. ¿En cual confiaríais más para realizar un viaje? El coche autónomo es más fiable, aunque no es responsable, y el humano a la inversa, nadie mantendría que una calculadora es menos fiable calculando tangentes que un humano porque la calculadora no se responsabiliza del resultado.

    Un saludo.

    ResponderEliminar
    Respuestas
    1. Te voy a poner un ejemplo, utilizando lo que tú mismo has dicho: Si en una calculadora una operación da un resultado incorrecto, la empresa fabricante de la calculadora despide a su programador. Fiabilidad y responsabilidad está ligadas.

      De hecho, esto ocurrió. Cuando IBM sacó al mercado su primer ordenador personal (1982), el intérprete de Basic estaba grabado en una memoria ROM incluida en la placa base. Resultó que había un error en el programa, de modo que si se dividía por dos una potencia negativa de dos, salía como resultado la cuarta parte, en vez de la mitad. Creo recordar que el responsable de esa parte del programa fue despedido. La cosa sonó mucho.

      ¿Se despide a alguien cada vez que ChatGPT comete un error? Estoy seguro de que no. Luego la relación entre fiabilidad y responsabilidad se ha deteriorado. Eso es lo que estamos criticando Gonzalo y yo.

      Eliminar
  13. Buenas; Lo comentado de que un traductor humano se hace responsable de su trabajo... se puede dotar a la IA de un seguro en un contrato de actividad. Es una cuestión económica entonces, ¿una IA ocasiona costes superiores a un humano en una tarea incluyendo un seguro? Bueno, estamos viendo que las IAs están superando umbrales inquietantes.

    ResponderEliminar